Algomus Jobs

Stage M1/M2 2020 - Informatique musicale, apprentissage automatique

Création musicale : génération guidée par l'apprentissage de la texture

  • Stage M1/M2, printemps/été 2020, 3 à 5 mois
  • Lieu: Amiens (MIS, Université de Picardie Jules Verne), ou éventuellement Lille ou Rouen
  • Gratification de stage
  • Encadrante et contact: Florence Levé, florence.leve@u-picardie.fr

La musique est faite de mélodies et d'harmonies structurées dans le temps et dans les hauteurs. La partition musicale formalise un ensemble de sons et est l'un des moyens principaux pour transmettre, échanger et préserver les œuvres musicales en Occident. Aujourd'hui, les approches informatiques combinant expertise musicale, méthodes algorithmiques traditionnelles ou issues de l'intelligence artificielle permettent de classifier, d’analyser et de générer de la musique [1,2]. La plupart de ces approches considèrent la « note de musique » comme objet central à partir duquel sont modélisés des concepts plus haut niveau comme l’harmonie ou la structure, qui font l'objet de nombreuses recherches en musicologie comme en informatique musicale

À un niveau plus abstrait, la notion de "texture" dans une partition permet cependant de capturer des phénomènes musicaux au cours d'une pièce ou d'une chanson qui échappent à ces représentation traditionnelles qui utilisent la note comme objet élémentaire. Un solo, un battement ryhmique, une homorythmie, un motif d’accompagnement, une imitation, toutes ces textures se retrouvent dans de nombreux styles musicaux et jouent un grand rôle dans la perception musicale. Les premières études de modélisation de la texture sont récentes en informatique musicale [3,4].

Objectifs

Dans la première partie du stage, le/la stagiaire étudiera de quelle manière différents analyseurs texturaux peuvent être combinés afin de converger vers une texture globale cohérente. Dans la deuxième partie du stage, il/elle cherchera à utiliser cette texture globale et/ou les sous-textures pour orienter la génération de musique. Ce stage pourrait être le prologue d'une thèse approfondissant ces questions de texture musicale et de génrération.

Mots clés : texture musicale, création musicale, apprentissage Environnement technique : Python, music21, Tensorflow ou Pytorch

Références

  • [1] J. P. Briot, G. Hadjeres, F. Pachet, Deep Learning Techniques for Music Generation - A Survey, 2019
  • [2] L. Bigo et al., Sketching Sonata Form Structure in Selected Classical String Quartets, ISMIR 2017
  • [3] M. Giraud, F. Levé et al., Towards Modeling Texture in Symbolic Data, ISMIR 2014
  • [4] F. Levé, M. Rigaudière, F. Doé, Vers une analyse informatique des textures dans le quatuor classique, EuroMAC 2017

Stage M1/M2 2020 - Informatique musicale, algorithmique du texte

Indexation de motifs mélodiques et harmoniques

  • Stage M1/M2, printemps/été 2020, 3 à 5 mois
  • Lieu: Lille (CRIStAL, CNRS, Université de Lille, à Villeneuve d'Ascq), Rouen (LITIS, Université de Rouen) et éventuellement Amiens
  • Gratification de stage
  • Encadrants et contacts: Richard Groult (MdC MIS, Université de Picardie Jules-Verne), Mathieu Giraud (DR CNRS, CRIStAL, Université de Lille, Thierry Lecroq (Pr. LITIS, Université de Rouen)

L'équipe d'informatique musicale Algomus, collaboration entre les laboratoires CRIStAL (UMR CNRS 9189, Université de Lille) et MIS (UPJV, Amiens) s’intéresse à l’analyse informatique de partitions musicales. L'équipe TIBS (LITIS, Université de Rouen) travaille en bioinformatique, et plus généralement est spécialiste d'algorithmique du texte et de structures d'indexation.

Contexte

La musique est faite de répétitions et de contrastes. Les "motifs musicaux" sont très présents dans de nombreux styles de musique occidentale tonale (baroque, classique, romantique, jazz, pop...). Un motif peut être vu comme une mélodie (suite de notes), mais de meilleures modélisations relient le motif aux harmonies sous-jacentes [Lerdhal 1988, Jansen 2013]. Aujourd'hui, des méthodes basées sur l'apprentissage permettent d'apprendre ce qu'est un motif musical. Ces méthodes ne permettent cependant pas de faire des requêtes rapides comparant un motif avec des corpus de potentiellement des millions de données. Des heuristiques à base de graines ont déjà été proposées pour des requêtes simplifées [Martin 2012]. Du côté de l'algorithmique du texte, ces vingt dernières années ont vu l'émergence de nombreux modèles pour indexer et rechercher efficacement des séquences symboliques, y compris approchées, notamment par des structures à base de BWT [Adjeroh 2008].

Objectifs

Le but du stage est d'explorer des premières pistes sur des structures d'indexation adaptées à ces motifs musicaux dans des partitions symboliques. Après une phase de bibliographie sur l'indexation et sur les motifs musicaux, on cherchera par exemple à concevoir, implémenter et tester un index basé sur une BWT permettant des recherches diatoniques exactes ou bien des recherches de motifs décrits par des intervalles entre plusieurs voix. Cet index sera implémenté et testé sur un corpus de morceaux à définir, et les résultats seront discutés avec des musiciens avec qui l'équipe collabore. On veillera à la complexité en temps et mémoire des solutions proposées.

Le stage aura lieu à Lille (CRIStAL), mais une partie du stage pourrait être envisagée à Rouen (LITIS). Ce stage pourrait être le prologue d'une thèse sur le domaine travaillant sur des motifs plus complexes avec des évaluations plus approfondies.

Profil du candidat: Master d'informatique théorique, algorithmique, complexité, structures d'indexation. Connaissances et pratiques musicales, idéalement avec des connaissances en harmonie et/ou en analyse.

  • D. Adjeroh et al., The Burrows-Wheeler Transform:: Data Compression, Suffix Arrays, and Pattern Matching , 2008
  • T. Lecroq et al., Pattern discovery in annotated dialogues using dynamic programming, IJIIDS, 2012
  • B. Jannsen et al., Discovering repeated patterns in music: state of knowledge, challenges, perspectives, 2013
  • C. Finkensiep et al., Generalized Skipgrams for Pattern Discovery in Polyphonic Streams, ISMIR 2018
  • B. Martin et al., BLAST for Audio Sequences Alignment, A Fast Scalable Cover Identification Tool, 2012

Stage M1/M2 2020 - Informatique musicale, développement web Polymer

Plateforme collaborative temps réel d'analyse de partitions de musique

  • Stage M1/M2 développement, printemps/été 2019, 2 à 5 mois
  • Lieu: Lille (CRIStAL, CNRS, Université de Lille, à Villeneuve d'Ascq) , éventuellement Rouen ou Amiens
  • Gratification de stage
  • Encadrants et contacts: Emmanuel Leguy, Richard Groult et Mathieu Giraud

Contexte

L'équipe Algomus développe [Dezrann](http://www.dezrann.net), une application web pour lire et annoter des partitions musicales. Cette application utilise le framework [Polymer](http://polymer-project.org) qui implémente la technologie des *Web Components* (futur standard du W3C). Nous réalisons un ensemble de balises HTML paramétrables qui s'intègrent aisément dans une page web à la manière des balises HTML5 vidéo ou audio. Dezrann est utilisé d'un côté par des classes de collèges pour découvrir la musique, et de l'autre, par des musicologues annotant des corpus. Pour que ces utilisateurs puissent travailler ensemble efficacement nous venons d'ajouter la possibilité de les faire collaborer en temps réel, à la manière d'un Google doc. Ainsi, cette nouvelle fonctionnalité permet d'annoter à plusieurs simultanément une partition de musique.

Objectifs

L'objectif du projet est de permettre à un utilisateur de *prendre le contrôle* de la session des autres participants pour leur montrer un endroit particulier de la partition. Cela sera très utile dans un contexte de classe où le professeur veut montrer quelque chose à ses élèves, ou quand des élèves veulent interagir entre eux, ou encore quand des musiciens veulent échanger à distance des commentaires sur une partition.

Techniquement, le travail consistera en trois points:

  • Se familiariser avec les technologies utilisées: polymer, socket.io, jwt.
  • Proposer et implémenter un protocole de communication et une UI adhoc.
  • S'interfacer avec le système d'authentification et d'autorisation. Proposer et implémenter les améliorations nécessaires pour la gestion de salons de discussion.

Le code sera programmé avec grand soin, documenté et testé. En cas de succès, ces développements seront testés et déployés avec nos utilisateurs, notamment en classes de musique avec nos collèges partenaires.

Mots clés: partitions musicales et analyse, socket.io, json web tokens, UI, Polymer, Web components, javascript.

Liens

  • https://socket.io
  • http://www.dezrann.net
  • http://polymer-project.org

Références

  • M. Giraud, R. Groult, E. Leguy, [Dezrann, a Web Framework to Share Music Analysis](https://hal.archives-ouvertes.fr/hal-01796787), TENOR 2018
  • L. Ma, M. Giraud, E. Leguy, [Realtime collaborative annotation of music scores with Dezrann](https://hal.archives-ouvertes.fr/hal-02162935), CMMR 2019

Post-doc position 2019/20

Computational music analysis and machine learning

Offre close, poste pourvu

The Algomus team is seeking to recruit a 12-months post-doc on computational music analysis in the CRIStAL lab (Lille, France), starting in the following months. The position is funded by the CPER MAUVE, and the team is also supported by CNRS, Université de Lille, UPJV and IrDIVE.

The candidate should have defended a PhD in MIR (or have a PhD defense scheduled in the next months), preferably working on symbolic scores and with background or experience in machine learning and musicology.

Throughout the last years, the Algomus team oriented his research in the retrieval of high-level structures, such as fugue [1] and sonata form [2], using and improving computational musical analysis techniques (pattern comparison, harmony [3], texture, polyphony...). The post-doc is intended to work in one of these fields and could develop new MIR and machine learning techniques on some analytical elements as well as on music structures. Project examples can be on methods to analyze piano music, targeting Beethoven piano sonatas, or on the study on the development of sonata forms, working on the concept of rotations as formalized by Hepokoski and Darcy [4].

Interested candidates should contact us before March 10th.



Stage M1/M2 2019 "Créativité musicale : modèles pour l'aide à la composition dans Guitar Pro"

  • offre close, stage pourvu
  • Stage M1/M2 recherche et développement, printemps/été 2019, 3 à 6 mois
  • Lieu: Lille (CRIStAL, CNRS, Université de Lille, à Villeneuve d'Ascq et SCV à Tourcoing
  • Gratification de stage, thèse CIFRE envisageable à la suite du stage
  • Encadrants et contacts: Louis Bigo, Mathieu Giraud, Nicolas Martin

L'equipe d’informatique musicale Algomus, collaboration entre les laboratoires CRIStAL (UMR CNRS 9189, Université de Lille) et MIS (UPJV, Amiens) s’intéresse à l’analyse informatique de partitions musicales. La société lilloise Arobas Music développe le logiciel Guitar Pro dédié à la saisie et à la consultation de tablatures de guitare, et plus généralement de partitions musicales. Plus de 10 millions de musiciens l’utilisent régulièrement pour l’apprentissage, la transcription ou la composition. La société s’intéresse à l’ajout de nouvelles fonctionnalités pour assister de manière intelligente le processus d’écriture et de composition de l’utilisateur. Arobas Music produit également la base de données mySongBook réunissant plus de 2000 tablatures de haute qualité.

Ce stage s’inscrit dans le cadre d’un co-encadrement entre l’équipe Algomus et la société Arobas Music. L’objectif est d'explorer des pistes pour développer un système stimulant la créativité musicale de l’utilisateur en assistant de manière intelligente son processus de composition, par exemple en proposant la continuation ou la terminaison d’une phrase musicale entamée. La construction d’un modèle reflétant un ensemble de tendances mélodiques, harmoniques et rythmiques associées à style musical peut s’effectuer par apprentissage automatique sur des phrases entrées par l’utilisateur ou sur des bases de données préexistantes, notamment le répertoire mySongBook maintenu par Arobas Music.

Le stage commencera par dresser un état de l’art sur la génération automatique de tablatures, et plus généralement de musique. Il s’agira ensuite d’identifier une représentation pertinente des données afin de tester le potentiel de différentes méthodes issues de l’apprentissage automatique, en particulier les réseaux de neurones, sur le corpus mySongBook.

Profil du candidat. Machine learning, Python. Connaissances musicales souhaitées, si possible en harmonie/écriture. Connaissance de la guitare appréciée.

Références
  • N. dos Santos Cunha, A. Subramanian & D. Herremans. Generating guitar solos by integer programming.
  • M. McVicar, F. Satoru and G. Masataka. "AutoLeadGuitar : Automatic generation of guitar solo phrases in the tablature space." Signal Processing (ICSP), 2014 12th International Conference on. IEEE, 2014.
  • J. P. Briot, G. Hadjeres, and F. Pachet. Deep learning techniques for music generation — A survey. https://arxiv.org/abs/1709.01620 (2017)
  • D. Herremans, C. Ching-Hua, and E. Chew. A functional taxonomy of music generation systems. ACM Computing Surveys 50/5, 69 (2017)