La création artistique s’appuie de plus en plus sur des artefacts technologiques. Mais un logiciel peut-il être créatif ? Les futures stars de la musique seront-elles des robots ? Tour d’horizon avec Alessandro Arbo, professeur en musicologie et directeur du Groupe de recherches expérimentales sur l’acte musical (Gream).
« Commençons par rappeler que le recours à des automatismes en musique a une longue histoire. Les premiers carillons ont été rapportés de Chine par des navigateurs hollandais au XIIIe siècle. Les boîtes à musique du XVIIIe siècle étaient déjà, elles aussi, des outils à reproduire la musique. Cependant, l’idée qu’un artefact puisse non seulement reproduire mais également concevoir (ou aider à concevoir) de la musique est plus récente. La Suite Illiac pour quatuor à cordes, mise au point par Lejaren Hiller et Leonard Isaacson en 1957, est considérée comme le premier exemple de composition par ordinateur. Iannis Xenakis a été le premier, dans les années 1960, à utiliser l’ordinateur pour le calcul des formes musicales.
On constate aujourd’hui que la machine peut intervenir à trois niveaux différents : elle peut déployer une capacité performative et reproductive ; elle peut jouer un rôle dans la production et la composition, ce qui peut s’apparenter à un acte créateur ; enfin, elle peut intervenir au niveau de l’écoute : sur le web, les algorithmes de recommandations enregistrent les préférences des individus et sont des aides au marketing de l’industrie musicale et du streaming.
Une utilisation possible de la machine pour la production est représentée par Verbasizer, un logiciel développé pour David Bowie en 1995, pour générer en studio d’enregistrement des idées, des titres et des paroles de chansons. Autre exemple, en 2003 Mario Baroni, Rossana Dalmonte et Carlo Jacoboni ont mis au jour, grâce à l’ordinateur, une sorte de grammaire générative qui permet de produire des mélodies très similaires à celles du compositeur baroque Giovanni Legrenzi (1626-1690). Et voici un exemple plus proche de nous : en 2016, est apparue « la première véritable chanson pop venue de la machine », Daddy’s car, produite par le logiciel Flowmachines de la firme Sony, à la manière des Beatles. Si cette intelligence artificielle est remarquable, car elle a été bien éduquée, elle reste cependant largement dépendante de l’humain. Et c’est bien un musicien en chair et en os, Benoit Carré, qui a arrangé la mélodie et les rimes de Daddy’s car.
Les performances alliant humains et machines en temps réel connaissent aujourd’hui un certain succès. Dans les musiques dites « mixtes », on cherche de plus en plus à intégrer le corps à la machine. Une doctorante du laboratoire Approches contemporaines de la création et de la réflexion artistiques (Accra), Madeleine Le Bouteiller, est en train de rédiger une thèse sur la manière dont les instruments numériques ont transformé l’idée même de performance musicale. Le monde physique reprend de la valeur, on confère de la corporalité à la performance -par exemple pour créer des sons en bougeant les mains- avec un feed-back immédiat. Et le côté expérimental suscite de la curiosité. Entendre de la musique élaborée par la machine en temps réel, avec des résultats inattendus qui sont déterminés par les choix des algorithmes, c’est très excitant.
« Une machine n’a pas d’autorité sur la création, car elle n’a pas choisi ce qui lui a été injecté »
C’est un fait entendu que les machines peuvent produire des artefacts. Il nous faut néanmoins poser une question de principe. Si une machine est engagée dans un processus créatif, nous ne pouvons pas lui attribuer des intentions réelles. La musique assistée par ordinateur (MAO) est très enseignée dans les universités, mais il s’agit bien d’assistance à la création, pas de création. En matière de droits d’auteur, on se casse la tête, car il s’agit d’un « artisanat » où la protection intellectuelle est difficile. Et la machine est alors d’une grande utilité pour détecter les sources ! Mais elle n’a pas d’autorité sur la création, car elle n’a pas choisi ce qui lui a été injecté. Elle peut certes identifier, suivre ou changer des règles. Elle peut inventer ou exécuter une pièce à la perfection. Mais quant aux résultats qu’elle pourra produire, ce sera toujours à l’Homme d’en juger. L’idée d’une appréciation de la part de la machine reste très lointaine ! »
Enseignante-chercheuse contractuelle à l’Ecole de management Strasbourg, Amélie Boutinot consacre ses recherches aux mouvements artistiques, aux dynamiques de notoriété des architectes contemporains et à la musique. L’an dernier, elle est interpellée par cette actualité : Christie's New York met en vente, pour la première fois, un tableau « peint » par un programme d’IA du collectif français Obvious. Le portrait, classique, un peu flou, représente Edmond Belamy, un jeune bourgeois du XIXe siècle. « J’ai trouvé particulièrement intéressant de confronter la sociologie de l’art, que j’explore dans mes recherches, à cette réalité de l’IA, qui suscite un tel engouement, jusque dans cette salle de vente prestigieuse ! » Avec Hélène Delacour (Université de Lorraine), Amélie Boutinot publie un article dans la revue en ligne The conversation 1. Les deux universitaires s’interrogent sur la capacité d’un logiciel à créer quelque chose de nouveau, en suggérant en conclusion que « demain, un nouveau profil d’artiste pourrait bien émerger, avec des caractéristiques plus numériques ». Edmond Belamy est vendu à 432 500 dollars, soit près de 45 fois son estimation la plus haute ! Une somme mirobolante qui a d’ailleurs vite ouvert le champ à une polémique juridique concernant la paternité de l’œuvre, un autre artiste ayant déposé le code source en open source…
1 « L’intelligence artificielle, une artiste à part entière ? », Amélie Boutinot et Hélène Delacour, The Conversation, 9 janvier 2019.