Impact des Intelligences Artificielles dans la Musique : Les IA dans le processus de création musicale

Introduction


L'évolution rapide de l'intelligence artificielle (IA) a profondément influencé de nombreux aspects de notre vie quotidienne, et l'industrie musicale ne fait pas exception. De la composition à la production en passant par la recommandation et la distribution, les technologies d'IA transforment la manière dont nous créons, découvrons et écoutons de la musique.


Cette veille technologique se propose d'explorer les dernières avancées dans le domaine de l'IA appliquée à la création musicale, en mettant en lumière les tendances émergentes, les innovations récentes et les implications pour l'industrie musicale. Nous examinerons comment les chercheurs, les développeurs et les entreprises utilisent l'IA pour repousser les limites de la créativité musicale, améliorer l'expérience utilisateur et relever les défis uniques de l'industrie.


En examinant ces développements, nous serons en mesure de mieux comprendre comment l'IA façonne l'avenir de la musique, en repensant les processus de création.


Sans plus tarder, plongeons dans le processus créatif d'un artiste, en explorant les différentes étapes de la création musicale, tout en examinant comment les technologies de l'intelligence artificielle interviennent de manière significative à chaque étape de ce parcours, de la génération de mélodies à la recommandation personnalisée.


Création musicale assistée par l'IA


L'un des outils émergents dans la création artistique depuis ces dernières années est l'outil AIVA, un compositeur musical virtuel qui utilise l'intelligence artificielle pour composer de la musique. Originellement utilisé pour composer de la musique orchestrale, AIVA est maintenant utilisé pour générer des musiques de film, de pub ou encore de jeux vidéo. Depuis 2019, AIVA propose une offre commerciale permettant de générer des compositions courtes dans plusieurs styles différents (jazz, pop, classique, fantasy).


AIVA utilise le deep learning afin de réaliser ses compositions musicales. Le deep learning est une branche de l'intelligence artificielle qui permet de réaliser des tâches complexes en utilisant des réseaux de neurones artificiels. L'un des réseaux neuronaux les plus importants et efficaces dans la création musicale sont les Réseaux Neuronaux Récurrents (RNN) qui permettent de générer des séquences de données, ici des séquences de notes de musique. Ce type de réseau garde en mémoire les calculs qu'ils ont établis.


Un exemple appliqué à la vie de tous les jours est lorsque vous écrivez un SMS à un ami. Vous avez déjà tapé "Je suis en train de...". Le RNN peut vous aider à prédire le prochain mot que vous allez taper en fonction des mots précédents. Il proposera alors des mots comme "manger", "dormir", "marcher". Ce même principe est alors appliqué à la création d'une mélodie.


L'un des outils "AI powered" les plus puissants sortis en 2023 est développé par Google, Magenta Studio, un plugin pour Ableton Live, un logiciel de composition utilisé par les professionnels. Magenta Studio propose plusieurs outils en se basant sur Magenta, un projet open-source de Google lié à la création de musique et d'art. Il regroupe divers outils alimentés par les intelligences artificielles, notamment les Generative Adversarial Networks (GAN). Les GAN sont composés de deux réseaux neuronaux, un générateur et un discriminateur. Le générateur crée des données à partir de données brutes, tandis que le discriminateur évalue ces données pour déterminer si elles sont "réelles" ou "fausses". Les deux réseaux travaillent en tandem pour améliorer la qualité des données générées, en utilisant un processus itératif pour raffiner les résultats.


Les GAN sont d'une grande importance lors de la création musicale car ils permettent de créer des morceaux de plus en plus "réels", de plus en plus proches d'un morceau qu'un humain pourrait produire.


Magenta Studio offre cinq principaux outils pour les créateurs sur Ableton Live : Continue pour continuer un extrait de mélodie (en utilisant les RNN vus précédemment), Generate pour générer un extrait de musique sans input, Interpolate pour lier deux mélodies proprement, Groove pour pouvoir ajuster un extrait de batterie, puis Drumify qui permet de générer un extrait de batterie en fonction d'une mélodie passée en argument. Generate et Interpolar utilisent des Variational Auto Encoder (VAE), une autre famille de réseau neuronal spécialisé pour la musique qui permettent de générer des extraits musicaux.


De nombreux outils similaires sont accessibles, leurs utilisations et leurs améliorations permettent aux artistes de dépasser les limites humaines en générant du contenu original, en explorant de nouveaux styles ou en aidant simplement à la composition pour permettre aux artistes de se concentrer sur la partie créative de la musique. Cela permet aussi d'accroître l'accessibilité à la création musicale, en démocratisant la création, en proposant des outils intuitifs ou même en réduisant les coûts généralement nécessaires lors de la création d'un morceau musical. Malgré leurs performances, ces outils sont en constante évolution. De nombreux points négatifs peuvent décrire ces produits. Cependant, malgré leurs performances, les IA présentent plusieurs faiblesses spécifiques dans le domaine de la musique. Premièrement, elles soulèvent des inquiétudes quant à leur potentiel de remplacer les artistes humains, ce qui pourrait conduire à une homogénéisation de la musique produite et à une perte de diversité artistique. De plus, l'utilisation d'IA peut entraîner une perte de contrôle sur le processus créatif, car les décisions sont souvent prises par des algorithmes sans intervention humaine directe, ce qui peut altérer l'authenticité artistique. En outre, des préoccupations éthiques et juridiques émergent, notamment en ce qui concerne la propriété intellectuelle et les droits d'auteur, car la création musicale générée par des IA peut soulever des questions sur la paternité et la responsabilité artistique. En résumé, bien que les IA offrent des avantages significatifs dans la création musicale, leurs faiblesses spécifiques doivent être prises en compte et abordées pour garantir un développement équilibré et éthique de cette technologie.

30/03/24

Dernièrement, une nouvelle IA est apparue, repoussant encore plus loin la puissance des IA dans la création musicale. Il s'agit de Suno, une IA permettant de créer une musique simplement à l'aide d'une phrase. Contrairement aux IA mentionnées précédemment, cette IA génère les paroles et la voix pour chanter ces dernières. Sortie fin 2023, la version 3 vient de paraître le 21 mars 2024, permettant de créer une musique dans plusieurs langues (anglais, français, espagnol, italien, etc.). Suno est désormais accessible à tous, pour générer une musique allant de 30 secondes à 2 minutes 30 en se basant sur un prompt.

Suno utilise divers outils, notamment un modèle de diffusion nommé GLIDE pour Generative Latent Diffusion for Melodies. Pour information, un modèle de diffusion dans le domaine de l'IA permet, en résumé, de savoir et contrôler comment chaque donnée communique entre elles pour obtenir le résultat souhaité. Ici, dans un contexte de génération de musique, cela permet de savoir comment un système neuronal utilise ses données pour créer le morceau souhaité. L'un des exemples les plus connus d'IA utilisant un modèle de diffusion est DALL-E de OpenAI, qui permet de générer des images à l'aide d'un prompt. Le modèle de Suno a deux buts : prendre une vraie musique et la séparer en plusieurs centaines de petits sons, et inversement, prendre tous ces petits sons pour créer une musique.
Retour à la liste