Jobs


Stage M1/M2 2019 "Créativité musicale : modèles pour l'aide à la composition dans Guitar Pro"

  • Stage M1/M2 recherche et développement, printemps/été 2019, 3 à 6 mois
  • Lieu: Lille (CRIStAL, CNRS, Université de Lille, à Villeneuve d'Ascq et SCV à Tourcoing
  • Gratification de stage, thèse CIFRE envisageable à la suite du stage
  • Encadrants et contacts: Louis Bigo, Mathieu Giraud, Nicolas Martin
L'equipe d’informatique musicale Algomus, collaboration entre les laboratoires CRIStAL (UMR CNRS 9189, Université de Lille) et MIS (UPJV, Amiens) s’intéresse à l’analyse informatique de partitions musicales. La société lilloise Arobas Music développe le logiciel Guitar Pro dédié à la saisie et à la consultation de tablatures de guitare, et plus généralement de partitions musicales. Plus de 10 millions de musiciens l’utilisent régulièrement pour l’apprentissage, la transcription ou la composition. La société s’intéresse à l’ajout de nouvelles fonctionnalités pour assister de manière intelligente le processus d’écriture et de composition de l’utilisateur. Arobas Music produit également la base de données mySongBook réunissant plus de 2000 tablatures de haute qualité.

Objectif

Ce stage s’inscrit dans le cadre d’un co-encadrement entre l’équipe Algomus et la société Arobas Music. L’objectif est d'explorer des pistes pour développer un système stimulant la créativité musicale de l’utilisateur en assistant de manière intelligente son processus de composition, par exemple en proposant la continuation ou la terminaison d’une phrase musicale entamée. La construction d’un modèle reflétant un ensemble de tendances mélodiques, harmoniques et rythmiques associées à style musical peut s’effectuer par apprentissage automatique sur des phrases entrées par l’utilisateur ou sur des bases de données préexistantes, notamment le répertoire mySongBook maintenu par Arobas Music.

Le stage commencera par dresser un état de l’art sur la génération automatique de tablatures, et plus généralement de musique. Il s’agira ensuite d’identifier une représentation pertinente des données afin de tester le potentiel de différentes méthodes issues de l’apprentissage automatique, en particulier les réseaux de neurones, sur le corpus mySongBook.

Profil du candidat

Machine learning, Python. Connaissances musicales souhaitées, si possible en harmonie/écriture. Connaissance de la guitare appréciée.

Quelques références

  • N. dos Santos Cunha, A. Subramanian & D. Herremans. Generating guitar solos by integer programming.
  • M. McVicar, F. Satoru and G. Masataka. "AutoLeadGuitar : Automatic generation of guitar solo phrases in the tablature space." Signal Processing (ICSP), 2014 12th International Conference on. IEEE, 2014.
  • J. P. Briot, G. Hadjeres, and F. Pachet. Deep learning techniques for music generation — A survey. https://arxiv.org/abs/1709.01620 (2017)
  • D. Herremans, C. Ching-Hua, and E. Chew. A functional taxonomy of music generation systems. ACM Computing Surveys 50/5, 69 (2017)



Stage M1/M2 2019 - Développement web Polymer, Informatique musicale

Audio et scénarios pour la musique en classe avec Dezrann

  • Stage M1/M2 développement, printemps/été 2019, 3 à 6 mois
  • Lieu: au choix, Amiens (MIS, Université de Picardie Jules Verne) ou Lille (CRIStAL, CNRS, Université de Lille, à Villeneuve d'Ascq et SCV à Tourcoing)
  • Gratification de stage
  • Encadrants et contacts: Emmanuel Leguy, Richard Groult et Mathieu Giraud

L'équipe Algomus, collaboration entre les laboratoires MIS (UPJV, Amiens) et CRIStAL (CNRS, Université de Lille), développe l'application web Dezrann pour lire et annoter des partitions musicales. L'annotation se fait en ajoutant des éléments graphiques sur la partition: les 'labels'. Cette application utilise le framework Polymer qui implémente la technologie des Web Components (standard du W3C). Nous réalisons un ensemble de balises HTML paramétrables qui s'intègrent aisément dans une page web à la manière des balises HTML5 vidéo ou audio.

Ce stage a pour objectif de rendre Dezrann utilisable en milieu scolaire durant les cours d'éducation musicale. Les élèves font des exercices d'analyse et de culture musicale basés en partie sur l'écoute. Par exemple, ils vont annoter la forme d'onde d'une pièce enregistrée en indiquant l'apparition des différents instruments de l'orchestre. La vue existante dans Dezrann de la partition musicale est ainsi étendue par une vue complémentaire sur la forme d'onde.

Le premier but du stage est de travailler sur cette vue en forme d'onde, et en utilisant la web audio API, de produire de l'audio de manière synchronisée:

  • soit la musique provenant d'un fichier audio (ogg, mp3, wav, flac...) via audio5js,
  • soit une voix isolée de l'oeuvre, le son (midi) étant généré par le navigateur à partir de la partition via midi.js

De plus, la gestion de profils utilisateur va bientôt permettre à Dezrann d'être utilisée à plusieurs. Le second but du stage est de développer des scénarios d'usage dans le cadre d'une classe de musique, notamment pour permettre une interaction entre les élèves et le professeur. Différents cas d'usages (encadrement, suivi, évaluation, gestion des permissions) seront à concevoir et à développer.

Le code sera écrit avec grand soin, documenté et testé. En cas de succès du projet, l'application étendue sera testée en situation réelle dans des classes d'éducation musicale de l'académie d'Amiens.

Mots-clés : partitions musicales, synchronisation musicale, javascript objet, Polymer, web audio API, midi.js, git/gitlab, tests et intégration continue


anciennes offres