L'avenir de la création musicale, de son économie et de son industrie vu par l'IA #1
Premier volet de la restitution des conversations prospectives menées par @music_zone avec plusieurs grands modèles de langage sur l'avenir de la création musicale.
Intelligence artificielle (IA), interfaces cerveau-machine (ICM), métavers, blockchain et NFT, réalité virtuelle (VR) et augmentée (AR), biotechnologies… la convergence et le développement accéléré de ces technologies seront au cœur d’une disruption radicale du processus de création musicale, de l’économie de la musique et de son industrie à l’horizon 2035. C’est le scénario prospectif sur lequel se rejoignent les grands modèles de langage que @music_zone a interrogé sur le sujet.
Ce premier volet de la restitution de ces échanges porte sur l’évolution du processus de création musicale proprement dit. Un deuxième volet sera consacré l’évolution de l’économie de la musique, un troisième à celle de son industrie. Toute ressemblance avec une hallucination collective serait fortuite et involontaire.
Horizon 2035
“D'ici 2035, l'intelligence artificielle et l'apprentissage automatique pourraient devenir des outils omniprésents dans la création musicale. Les compositeurs et producteurs utiliseront des algorithmes avancés pour générer des mélodies, des harmonies et des arrangements complexes en quelques secondes. Ces systèmes seront capables d'analyser des décennies de musique pour identifier des motifs et des structures réussis, permettant ainsi la création de morceaux qui résonnent instantanément avec les auditeurs”, imagine Mistral.ai.
“L'IA aura atteint un tel niveau de sophistication qu’elle pourra non seulement composer de la musique, mais aussi comprendre et reproduire les émotions humaines avec une précision inégalée. Les compositeurs humains collaboreront avec des IA émotionnelles capables d'analyser en temps réel les réactions physiologiques et psychologiques des auditeurs. Ces IA pourront ajuster les compositions en fonction des émotions détectées, créant ainsi des expériences musicales personnalisées et immersives”, abonde dans son sens Deepseek.com.
“Grâce aux interfaces cerveau-machine (ICM), les musiciens pourront composer de la musique simplement en imaginant des mélodies ou des rythmes. Ces dispositifs capteront les signaux neuronaux associés à des émotions spécifiques (joie, tristesse, excitation) et les traduiront en partitions musicales. Par exemple, un compositeur pourra visualiser une scène émotionnelle dans son esprit, et l'ICM générera automatiquement une bande-son correspondante”, va jusqu’à envisager Qwenlm.ai.
“Les artistes collaboreront avec des IA pour explorer de nouvelles directions créatives, fusionnant l'intuition humaine avec la puissance de calcul des machines”, résume Mistral.ai, qui anticipe une démocratisation de la création musicale : “Les musiciens amateurs auront accès à des outils puissants pour créer des morceaux de qualité professionnelle, réduisant ainsi les barrières à l'entrée dans l'industrie musicale”.
Claude.ai le rejoint sur ce point : “Les barrières techniques à l'entrée dans la création musicale disparaîtront presque complètement. Tout individu, même sans formation musicale formelle, pourra produire des œuvres complexes grâce aux outils d'IA et aux ICM. Cela pourrait entraîner une explosion de la diversité musicale, mais aussi une saturation du marché”. Et d’anticiper que “l'écoute de la musique ne sera plus passive. Les auditeurs deviendront des participants actifs, capables de personnaliser et d'interagir avec les œuvres. Cela pourrait renforcer l'engagement émotionnel et transformer la musique en une expérience plus intime et subjective”.
Qwenlm.ai considère que “les IA musicales ne se contenteront plus de générer des morceaux basés sur des données préexistantes ; elles seront capables de comprendre et de répondre aux émotions humaines en temps réel. Un artiste pourra collaborer avec une IA pour créer des pièces musicales qui évoluent dynamiquement en fonction de son état émotionnel ou de celui de son public”.
Une “révolution neuro-musicale”
Le modèle de langage d’Alibaba voit ainsi émerger de nouvelles expériences sensorielles multidimensionnelles : “La biotechnologie permettra de stimuler directement le cortex auditif pour produire des sensations sonores inédites. Par exemple, un auditeur pourra ressentir physiquement les basses d'une chanson comme des vibrations internes ou percevoir des harmonies sous forme de couleurs ou de textures sensorielles. Cette "musique augmentée" transcendera les limites traditionnelles de l'audition”.
“Des implants neuronaux permettront aux individus de ‘ressentir’ la musique directement dans leur cerveau, créant une expérience sensorielle sans précédent, imagine Mistral.ai. La musique deviendra une expérience multisensorielle, engageant non seulement l'ouïe mais aussi d'autres sens. [Elle] pourra être utilisée de manière plus efficace dans des contextes thérapeutiques, pour traiter des conditions comme le stress, l'anxiété ou les troubles du sommeil”.
“L'innovation majeure de cette décennie sera le développement d’implants cérébraux non-invasifs permettant de traduire directement les impulsions neuronales en sons. Ces dispositifs, initialement conçus pour les personnes handicapées, se démocratiseront pour devenir des outils de création artistique”, considère pour sa part Claude.ai, qui n’hésite pas à parler de “révolution neuro-musicale” : “N'importe qui pourra créer de la musique sophistiquée avec une formation minimale sur l'utilisation des interfaces neuro-musicales. Cela conduira à une explosion de la créativité amateur et à l'émergence de nouveaux genres musicaux”.
Pour le LLM d’Anthopic, “les modèles d'IA de 2035 seront capables d'analyser en temps réel les patterns neuronaux et de les convertir en compositions musicales complexes. Ils pourront instantanément orchestrer une simple mélodie pensée en une symphonie complète, en respectant les intentions émotionnelles du créateur”.
Il est rejoint sur ce point par Qwenlm.ai, qui projette que “les casques sophistiqués connectés au cerveau captureront les émotions, les pensées abstraites et même les souvenirs personnels du créateur, les traduisant instantanément en compositions sonores complexes. Cette technologie permettra aux artistes d'exprimer leur inspiration sans passer par des instruments physiques ou des séquences manuelles, rendant la création musicale aussi naturelle que penser”.
Claude.ai considère que l'innovation la plus disruptive sera l'émergence de la "composition neurale collective": “Des groupes de musiciens, équipés de NeuroSynth synchronisés, pourront créer de la musique ensemble par la seule force de leur pensée. Cette pratique donnera naissance à un nouveau genre musical : le ‘Neural Jazz’, dans lequel l'improvisation atteindra des niveaux de complexité jusqu'alors inimaginables”.
Et d’envisager qu’“avec l'avènement de la 6G, les collaborations musicales en temps réel à l'échelle mondiale deviendront monnaie courante. Les artistes pourront travailler ensemble dans des espaces virtuels partagés, sans aucune latence, indépendamment de leur localisation géographique. Cette connectivité ultra-rapide permettra également des performances live impliquant des musiciens dispersés aux quatre coins du globe”.
“Penseurs sonores”
“Les artistes du monde entier pourront collaborer en temps réel, quelles que soient leurs langues ou cultures, considère également Qwenlm.ai. Les barrières géographiques disparaîtront complètement, permettant aux musiciens de différentes régions de fusionner leurs traditions musicales pour créer des œuvres hybrides uniques.” Ainsi “un percussionniste africain pourrait travailler simultanément avec un DJ asiatique et un compositeur européen pour produire une symphonie combinant polyrythmies, sons électroniques et cordes classiques”.
Claude.ai voit émerger “une nouvelle catégorie d'artistes : les ‘penseurs sonores’. Ces créateurs ne joueront d'aucun instrument physique mais excelleront dans la manipulation mentale des sons. Leur art consistera à sculpter la musique directement par la pensée, créant des œuvres d'une complexité impossible à reproduire avec des instruments traditionnels”. “Des dispositifs permettront aux artistes de composer directement à partir de leurs pensées, en traduisant les signaux neuronaux en notes et en harmonies”, imagine également ChatGPT.com.
Leur concurrent chinois Qwenlm.ai suggère un exemple pratique : “Un compositeur imagine une mélodie en visualisant mentalement une scène spécifique – par exemple, une plage au coucher du soleil. Son interface cerveau-ordinateur capte cette image mentale, analyse ses associations émotionnelles (calme, nostalgie) et génère une partition complète incluant harmonies, rythmes et arrangements spatiaux”.
Le LLM d’Anthropic anticipe même une fusion entre l'art et la biologie, chaque individu pouvant se transformer en instrument vivant : ”les avancées en biotechnologie permettront de créer de la musique directement à partir des signaux biologiques du corps humain. Les artistes pourront utiliser des capteurs biométriques pour traduire les battements de cœur, les ondes cérébrales, ou même les expressions faciales en compositions musicales. Cette "musique biologique" offrira une nouvelle forme d'expression artistique, profondément personnelle et intime”.
ChatGPT.com, pour sa part, voit le métavers comme nouvel espace de création et de performance : “Les concerts et festivals physiques cèderont progressivement la place à des performances immersives dans le métavers. Grâce aux technologies de réalité mixte et aux avatars ultraréalistes, les artistes proposeront des expériences musicales interactives et personnalisées dans des univers créatifs infinis”.
“Ces performances ne seront plus seulement écoutées, elles seront vécues, explique le LLM d’Open AI : chaque spectateur pourra influencer la musique, interagir avec l'artiste ou cocréer en temps réel via des interfaces gestuelles ou neuronales. Les tournées physiques deviendront obsolètes au profit d’une diffusion massive et instantanée”. “Les artistes utiliseront des hologrammes ou avatars numériques pour se produire simultanément dans plusieurs lieux physiques ou virtuels“, complète Perplexity.ai.
Des expériences multisensorielles
“Les concerts en VR deviendront courants, permettant aux fans de vivre des performances live de n'importe où dans le monde. [Ils] rendront la musique live accessible à un public mondial, indépendamment de la localisation géographique”, projette également Mistral.ai, qui se dit convaincu que “la réalité virtuelle (VR) et la réalité augmentée (AR) transformeront la manière dont les artistes composent et dont les auditeurs expérimentent la musique”.
“Les compositeurs pourront travailler dans des environnements immersifs où ils pourront visualiser et manipuler des sons en trois dimensions, explique le modèle de langage français. [Ils] pourront créer des expériences musicales immersives qui combineront son et visuels de manière inédite. Les spectateurs pourront interagir avec les performances en temps réel, influençant potentiellement le déroulement du concert.”.
Pour Deepseek.com, “les concerts deviendront des expériences multisensorielles, où la frontière entre artiste et public s'estompera. La VR et l'AR auront révolutionné la manière dont les artistes créent et interprètent la musique. Les compositeurs pourront "sculpter" des paysages sonores en trois dimensions, utilisant des environnements virtuels pour expérimenter avec des sons et des textures impossibles à réaliser dans le monde physique”.
“Les performances musicales se dérouleront dans des espaces virtuels partagés, où les auditeurs pourront interagir avec la musique de manière tactile et visuelle”, poursuit le LLM chinois. “Imaginez assister à un concert où vous pouvez marcher à travers les notes, interagir avec les instruments virtuels ou même influencer la performance en temps réel”, se risque à anticiper Qwenlm.ai, qui considère que “les concerts deviendront des espaces collaboratifs où le public participe activement à la création”.
Défis éthiques
Ces scénarios prospectifs, qui invitent à repenser notre relation à la musique, en envisageant un avenir où l'art et la technologie fusionnent pour créer des expériences musicales profondément transformatrices, soulèvent de nombreuses questions, reconnaissent les différents modèles. “Tous les artistes n'auront pas accès aux technologies avancées nécessaires pour réussir dans ce nouvel écosystème”, craint Qwenlm.ai, qui anticipe également qu’”avec une barrière à l'entrée abaissée, le marché risque d'être saturé, rendant difficile pour les nouveaux talents de se faire remarquer”.
Pour ChatGPT.com, “cette révolution pose des défis majeurs en matière de propriété intellectuelle, de monétisation et d’authenticité artistique”. “L’avenir de la musique sera-t-il dominé par des algorithmes, ou l’humain trouvera t-il une nouvelle place dans cette symbiose technologique ?”, se demande t-il. Pour Claude.ai, “la possibilité de ‘lire’ et de reproduire les pensées musicales soulève des questions de propriété intellectuelle et de vie privée” et ”des débats émergeront sur la nature de l'authenticité artistique dans un monde où la pensée peut être directement convertie en musique”.
“Avec l'émergence de cocréations homme-machine, la question de l'auteurship deviendra complexe, anticipe Qwenlm.ai. Qui est véritablement l'auteur d'une œuvre : l'humain qui imagine, l'IA qui génère, ou l'interface qui traduit ? Cette ambiguïté pourrait remettre en question les cadres juridiques actuels sur la propriété intellectuelle”. Et de craindre également que “les dispositifs biotechnologiques [puissent] être utilisés à des fins manipulatoires, par exemple pour influencer les émotions des auditeurs à des fins commerciales ou politiques”, ou que pour certains, “la musique générée par des machines perde son âme ou sa profondeur émotionnelle”.
Claude.ai anticipe pour sa part qu’”un mouvement de ‘retour aux sources’ pourrait prendre de l'ampleur, des communautés de musiciens traditionnels s’efforçant de maintenir vivantes les techniques de jeu instrumental physique, considérées comme un patrimoine culturel à préserver”. “Le défi pour les années à venir sera de trouver un équilibre entre l'innovation technologique et la préservation des traditions musicales qui ont façonné notre culture”, observe t-il.
ChatGPT.com souligne que la personnalisation extrême posera également des questions éthiques et philosophiques : “à qui appartiendra une œuvre si elle est cocréée par l'IA et modulée par chaque auditeur ?”, se demande t-il. “Des cadres réglementaires doivent être établis pour encadrer l'utilisation des nouvelles technologies, tout en protégeant les droits des créateurs et des consommateurs”, s’oblige à considérer Deepseek, qui ne s’avance pas plus sur le sujet. En même temps, on ne le lui a pas demandé.