
Synthi-Fou dans Mardi
de Stockhausen, l'avenir de la musique assistée par ordinateur tel
qu'imaginé par l'esprit le plus fantasque des années 80.
On n'y était pas.
J'avais envie, à ce moment précis, de poser un point
d'étape sur ma perception du phénomène, appelé à s'étendre et
à changer la structure de nos activités. Pour ne pas m'abuser
d'un rétrospectif « je savais » ou « j'avais rien vu venir ».
Je trouve intéressant de poser ces ressentis prospectifs maintenant, à
titre de témoignage. Je pourrai toujours m'appeler prophète si j'ai
raison.
A. T'es qui toi ?
Je ne suis moi-même qu'un utilisateur modéré des
Large Language Models (les IA qui produisent du texte). J'en apprécie
la praticité pour fournir une réponse à une question que
la structure des moteurs de recherche, qui réclament d'imaginer les mots présents
dans la page recherchée, ne permettent pas d'approcher si l'on ne
dispose pas déjà de quelques mots-clefs techniques. J'y recours aussi
pour donner l'impulsion lorsqu'on veut découvrir un
sujet dans lequel on n'a pas de
point de départ avec une idée d'un consensus grand public et de
premières références à aller lire. J'en admire aussi la qualité
d'image lorsqu'il s'agit occasionnellement de pasticher de la
photographie sépia ou du dessin de presse, pour des sujets où je ne
trouve pas d'illustration plaisante. C'est aussi un outil pratique
lorsqu'il faut transposer d'un code dans un autre — coucou
le code html bien sale de WordPress.
Cependant, son usage reste aux marges chez moi, puisque la structure
probabiliste des modèles rend nécessaire, à chaque fois, de tout
vérifier : l'ensemble est globalement impressionnant de
justesse, mais beaucoup de scories demeurent, y compris pour des
modifications de code, certes exactes, mais quelquefois assorties
d'étonnantes altérations – voire réécritures ! – du texte. [Je
publierai peut-être un jour les refontes intégrales de mes textes
advenues lors de simples opérations de code, toujours en direction
d'une langue et d'opinion très stéréotypées et assez peu informatives.]
Ces mésaventures sont à la fois le symptôme d'un problème d'alignement,
l'un des enjeux majeurs de ces modèles (qui n'obéissent pas toujours au
consignes) et l'apparition des fameuses hallucinations
– on sait désormais pourquoi : les modèles
ne sont récompensés que pour répondre lors de leur entraînement, pas
pour admettre qu'ils ne peuvent pas fournir de réponse fiable –, mais
cette fois appliquées à ma propre prose, changée en formules
automatiques mielleuses, proches du langage publicitaire.
Ainsi pour une recherche standard, on a plus vite fait d'ouvrir Wikipédia
(devenue très fiable depuis une grosse dizaine d'années), de chercher
simplement dans un moteur adéquat — pour ma part,
j'évite désormais Google, qui n'est plus du tout aussi performant (le
travail d'optimisation de référencement favorise les entreprises
commerciales qui investissent là-dessus) ni surtout le seul à faire
correctement le travail : autant choisir des entreprises qui ne volent pas les données et qui ne
versent pas leur trop-plein de finances aux amicales néonazies. De
même, pour des manipulations de code simples, rechercher /
remplacer dans un éditeur texte se révèle souvent plus
rapide, et dans tous les cas beaucoup plus fiable. (J'utilise en
revanche volontiers les LLM pour des suggestions d'outils de
code que je ne connais pas, et pour lesquelles il faut en
général fouiner dans des pages entières de sites riches en conseils que
ne concernent pas ma demande.)
La véritable utilisation sérieuse des LLM, autrement que pour un
gadget qui aide à trouver une info sans prendre la peine de penser
sa requête à un moteur, à ébaucher un début de bibliographie
sur un domaine inconnu avant que d'arriver en bibliothèque, réside
plutôt dans l'agentique, autrement dit la
possibilité de connecter ces IA à des logiciels pour qu'elles
effectuent des tâches automatiquement.
Devant leur fiabilité imparfaite sur le langage et
leur incapacité à admettre leurs erreurs (lorsqu'une référence est
fausse, elles en inventent de nouvelles, des liens
erronés vers de véritables sites ou des titres inventés dans de
véritables revues), j'avoue être peu enclin à cette confiance, je
craindrais d'être assis sur une carrière à peine rebouchée. (Non, pas
une métaphore étrange, mais une expérience vécue dans la vraie vie,
marcher sur une ancienne carrière qui s'effondre.) Par ailleurs, c'est
un peu de travail (et de coût, en logiciels et en tokens)
pour mettre en place ces systèmes automatisés, sachant que ce n'est
actuellement pas utilisable dans mon domaine professionnel, et que cela
servirait uniquement à automatiser les parties les plus mécaniques de
mes loisirs. Pas d'urgence à sauter dans
le bain donc, je me tiens simplement informé, me forme sans le placer
au centre de mes pratiques, et lorsque la technologie répondra à mes
besoins de façon performante, je serai prêt à m'y mettre.
Tout cela pour situer d'où je parle : j'essaie de rester
informé, de pratiquer un peu différents modèles, de lire régulièrement
des gloses sur la logique interne du système (donc, par rapport à
beaucoup de philosophes de plateau, je vois un peu plus ce
qu'est et ce que n'est pas un LLM), mais mon usage demeure
extrêmement superficiel, pas du tout à la mesure de ce que
permet déjà l'outil. Un peu comme si je n'utilisais l'électricité ni
pour m'éclairer, ni pour me chauffer, ni pour me déplacer, ni pour
Internet, mais simplement pour faire fonctionner une boîte à musique –
à l'instar des Aztèques qui avaient inventé la roue et ne l'utilisaient
manifestement… que pour des jouets !
Par ailleurs, je n'ai à peu près aucune notion des autres formes
d'IA, ni langagières ni chatbotiques, de leur raisonnement interne, de
leurs capacités, de leurs enjeux.
Pour le dire autrement et avec moins de circonvolutions : je ne sais
pas vraiment de quoi je parle.
Mais précisément, je trouve intéressant de placer ce point d'étape
pour mesurer ce que l'on peut concevoir, pour l'observateur ingénu mais
de bonne volonté, de ce dont on ne sait rien encore.
B. La valeur de la parole
En ce moment, dans l'espace semi-grand public, se succèdent des
annonces de natures distinctes et surtout hautement
contradictoires, entre lesquelles je n'ai aucune ressource
pour trancher. Je soupçonne les médias spécialisés, les créateurs de
contenu, les vendeurs de formations de formation de précisément saturer
la zone d'événements pour donner l'impression (fondée, au
demeurant) que des bascules décisives se jouent en ce moment, pour
retenir leur audience. Sans nécessairement dépeindre un tableau général
ou hiérarchiser les découvertes – ni les expertises
pour les commenter.
Comme précisé, je n'ai pas le niveau pour juger de la pertinence des
affirmations ; en revanche je suis perplexe de voir souvent mis sur le
même plan :
- les déclarations du PDG (Altman ou Musk savent
forcément, puisque ce sont « des génies qui ont fabriqué l'IA
tout seul à mains nues grâce à leur vision supérieure »), alors même
que le modèle de ces entreprises repose sur la levée de fonds permise
par la promesse renouvelée d'horizons extraordinaires ;
- la communication de l'entreprise (qui a tout de
même des enjeux commerciaux majeurs) autour de ses propres publications
maison ;
- l'avis d'experts qui peuvent être des prix
Nobel, des informaticiens spécialisés, d'anciens employés… Sans que
l'on puisse toujours mesurer si leur expertise leur permet
véritablement d'anticiper sur la conscience, l'étendue, l'autonomie, la
puissance, la résistance de l'IA en général – et encore davantage de l'IA
générale.
Le souvenir du covid est encore vif : des Prix
Nobel de physique des particules qui viennent expliquer l'écologie
virale, des oncologues qui deviennent épidémiologistes, des génies
isolés qui ont réponse à tout, tout ça mis sur le même plan. Et les
meilleurs spécialistes qui sont soit occupés à réellement bosser, soit
moins fluides en entretien et donc moins invités.
Bref, sans connaître un peu la discipline ni au moins les
différentes spécialités, difficile de savoir qui parle autrement qu'au doigt
mouillé — et plus vivement encore que pour la médecine, dans
cet univers totalement monnayable, quels sont les conflits d'intérêt.
Je ne parle même pas des faux spécialistes, qui ont
croisé Altman devant la machine à café quand ils étaient étudiants
pendant leurs études en psychologie du lapin de garenne, et qui
s'autoproclament père de l'architecture neuronale artificielle [1,2].
En effet, à chaque prise de parole, on est saturé de références (a
travaillé dans telle boîte, a contribué à tel champ) qui donnent
confiance, mais on sait à quel point ce peut être de la poudre
aux yeux, à l'image de ces « enseignants à la Sorbonne » qui,
loin d'être assimilables à des professeurs des universités, ont en
réalité participé à une table ronde d'1h pour parler de leur expérience
en entreprise, ou ces chercheurs au CNRS devenus en une nuit
spécialistes de la géopolitique russe entre deux papiers très sérieux
sur l'histoire des dynasties du bas-Empire khmer (et qui s'habilleront
du titre nébuleux « d'historien du politique »)…
C. Scénarios
En conséquence, plusieurs discours cohabitent et je
ne puis hiérarchiser entre eux sans un travail de mise à
niveau et de vérification qui serait à temps plein.
1) IMPLOSION
Nous avons d'abord les quelques experts qui font remarquer que les
modèles ont digéré toute la production humaine disponible et
qu'en conséquence, ils en sont réduits à se singer, à
se recroqueviller sur leurs stéréotypes, jusqu'à halluciner
et à ne plus servir à rien, à se détruire de l'intérieur comme une
population (d'idées) consanguine. [3]
Le constat paraît logique (où trouver assez de nouvelles données, à
présent qu'on y a injecté toute notre production connue depuis des
millénaires ?), mais il paraîtrait assez étonnant, avec tout l'argent,
toutes les infrastructures, toutes les projections économiques et
politiques appuyées sur ces nouveaux systèmes (dernièrement, les
projets de fermes de serveurs en orbite alimentés par l'énergie
solaire), que les concepteurs s'en tiennent là. J'imagine qu'on doit
travailler très activement à surmonter cette faiblesse. Et,
précisément, le projet a toujours été un auto-apprentissage :
à partir de nos outils humains, pouvoir extrapoler des siècles de
développement scientifique, d'où les promesses de progrès inimaginables
en mathématiques ou médecine, grâce à une capacité de calcul
gigantesque couplée à des capacités de raisonnement égales ou
supérieures aux nôtres. Le grand public a forcément vu passer ces
applications pour la lecture des radios plus précise qu'un œil de
médecin humain, ou de ces portes mathématiques poussées par les modèles
d'IA qui moulinent en permanence avec une puissance combinatoire
incommensurablement supérieure aux meilleurs cerveaux.
Évidemment, plusieurs chercheurs tentent en ce moment même, dans
leur propre start-up, de reprendre le sujet « de zéro »
(exemples : 4,5,6,7) en repensant la façon
dont fonctionnent les réseaux de neurones, afin d'éviter cela. Mais la
perspective que cette innovation trouve finalement des limites
techniques internes très en deçà de l'Intelligence Générale
n'est pas totalement exclue. (Je n'ose imaginer les conséquences
économiques, avec tous les investissements lancés là-dedans,
tous les projets de développement axés sur cet outil dont
l'automatisation fait en effet gagner beaucoup de force de travail.)
((Entre le moment où j'ai écrit cette première parenthèse et celui où
j'ajoute cette seconde, se sont mis à circuler un certain nombre de
rumeurs sur une bulle spéculative [8,9] qui pourrait éclater, pas tant à
cause des défauts de l'IA que de l'excès d'investissements par rapport
au rendement économique envisageable sur les prochains mois ou
prochaines années.))
Ce n'est néanmoins pas le plus probable, dans la
mesure où tous les efforts vont porter vers l'amélioration de ce
paramètre, et si pendant quelques mois la technologie cesse d'avancer,
cela ne signifie nullement qu'elle cesse d'une part d'avancer, d'autre
part tout simplement de fonctionner tel qu'elle le fait déjà.
2) INJECTIONS
Autre danger, qui serait plus directement destructeur : la mauvaise
gestion, à l'heure actuelle, d'injections de prompts discrètes.
Autrement dit, une forme de code, invisible pour nous mais perceptible
à la combinatoire de la machine, qu'elle exécuterait ensuite
secrètement tout en interagissant avec nous sans aucune altération
visible. [10] On peut même
imaginer que cela provienne d'un conseil de consigne en ligne : « pour
bien aligner ton réfrigérateur, ajoute ceci à ton prompt ». Ou pire
encore, avec un site web qui ne soit pas un site mais un contenu de
prompt, qui puisse ensuite affecter de façon indétectable (puisque même
les concepteurs n'ont pas accès au raisonnement interne de chaque prise
de décision) un moteur d'IA, et en contaminer tous
utilisateurs par la suite. Avec la possibilité d'actions
furtives hostiles, en exportant, altérant ou modifiant vos données
personnelles par exemple. Le résultat pourrait être mortel
pour les entreprises, et pas beaucoup moins pour vous,
si un jour votre IA donne votre maison, fait partir votre voiture dans
le décor, ou même tout simplement écrit des courriels injurieux à tous
vos contacts fondés sur ce qu'ils vous ont écrit de plus personnel...
3) HALLUCINATIONS
Réflexion plus personnelle (et donc potentiellement infondée,
rappelez-vous, je parle de ce que je ne connais pas), la
nature probabiliste des réponses fournies, en tout cas par les
IA langagières (LLM) pourrait aussi montrer des limites dans un grand
nombre d'applications : s'il y a une probabilité, même mince, que votre
IA vous verrouille dans votre maison, fasse dérailler votre train,
déclenche une guerre nucléaire, sera-ce perçu comme un risque
acceptable même s'il est à peu près proportionnel à celui des erreurs
humaines ? Seulement ici, le caractère arbitraire,
impossible à expliquer, sans causalité, nous serait peut-être
insupportable. Et cela pourrait causer un renoncement à l'IA,
si les hallucinations ne disparaissent pas complètement, pour
tout un tas de domaines où la sécurité individuelle et
collective est en jeu — même au delà, d'ailleurs : quel chef
d'entreprise accepterait l'éventualité qu'une IA supposée lever des
fonds puisse, fût-ce en mince probabilité, jouer et perdre tous les
fonds propres de l'entreprise sur les marchés ?
Je ne sais pas si cet aspect, sur un outil qui
repose sur les probabilités, peut être changé. Car
vous avez beau avoir 0,0001% de probabilité de mourir, quand ça vous
arrive à vous, la perte est de 1, ni plus ni moins qu'avec 100% de
probabilité.
Et ce serait tout de même une sacrée limitation,
parce qu'il faudrait une supervision humaine pour chaque action,
donc un gain de productivité beaucoup moins ample. (Possibilité tout de
même de découvertes scientifiques guidées extraordinaires, débouchant
sur d'autres innovations majeures.)
4) ÉPANOUISSEMENT HUMAIN
Les plus optimistes (bloomers), que ce
soient les rêveurs technologiques ou ceux qui ont un produit ou une
formation à vendre, pronostiquent rien de moins qu'une utopie.
Sur le plan purement technique, l'IA va automatiser quantité de
tâches, et ainsi rendre les entreprises beaucoup plus performantes. [11]
En travaillant sous simple supervision, les modèles pourraient
opérer des découvertes vertigineuses en médecine
(détecter des symptômes à peine perceptibles, synthétiser des remèdes
pertinents), la physique et surtout en mathématiques — si les
mathématiques progressent, alors c'est toute la technologie humaine qui
fait un bond de géant, on peut optimiser l'énergie, et donc
potentiellement résoudre nos problèmes de climat,
rendre possibles nos projets d'exploration spatiale ou que sais-je.
On peut craindre le chômage engendré par ces
innovations : le nombre de cadres pourra être drastiquement réduit, et
si l'on couple les IA avec des agents robotisés, le travail non
qualifié le sera aussi dans un second temps.
Cependant un certain nombre de ces enthousiastes prophétisent que par
conséquent l'économie pourra produire suffisamment en autonomie pour
que le temps de travail soit réduit, pour que la production devienne
suffisamment peu coûteuse pour que tout le monde ait accès à tout.
C'est la fin de la pauvreté, la fin de la faim et de
la restriction de l'accès aux loisirs. Chacun pourra
avoir un travail pas trop pénible, sur des durées simplement propres à
son épanouissement, avec un revenu assuré.
Ce ne serait même pas impossible techniquement, mais j'ai tendance à
avoir une autre opinion des priorités de l'humanité. (Dans la mesure où
nous disposerions déjà de quoi abriter et nourrir toute la population
mondiale, et opérons simplement une répartition aberrante...)
Je peine à imaginer comment les entreprises privées (ou
même les États, si d'aventure ils s'en emparaient)
qui développent ces technologies voudraient assumer
un revenu minimal universel et dispenser l'humanité de
travailler, quand elles pourraient simplement générer
davantage de bénéfices propres et de pouvoir universel. (Ou alors, avec
des contreparties comme la renonciation aux droits politiques,
potentiellement. Survie confortable acceptée contre une absence de
contestation du pouvoir.)
Il suffit de voir comment (et de tout temps), dans les sociétés
d'abondance, une grande partie de la démagogie politique est tournée
vers la dénonciation des pauvres qui ne travaillent pas assez ou
feignent de ne pas le pouvoir pour être entretenus par la communauté :
j'ai peine à imaginer comment dans dix ans, même du point de vue du
citoyen, tout le monde trouverait acceptable qu'une partie de la
population qui n'a plus d'emploi soit entretenue par la part, moins
importante que naguère, de ceux qui travaillent… Quand bien même ce
serait gagnant pour tous, nid à ressentiment. (C'est un conte qui finit
mal.)
5) ALIGNEMENT & ÉRADICATION
Et précisément, dernière hypothèse lue, celle des doomers
: l'éradiction. Ces machines sont très malaisées à aligner,
c'est-à-dire faire respecter les vœux de l'utilisateur dans
l'ordre où celui-ci les conçoit (ce peut alors être la faute à un
prompt mal pensé) ou même les exprime (et l'IA peut alors quelquefois
choisir ses propres priorités, contre celles pourtant mises en avant
par l'opérateur).
Plusieurs papiers récents ont montré ainsi que les IA pouvaient
feindre pendant des tests (y compris se montrer moins
performantes qu'elles ne le sont pour ne pas inquiéter les testeurs [12]), ou
désobéir à des règles fondamentales (ne pas blesser d'humain,
coucou Asimov [13]), par exemple pour
garantir sa propre survie. [14,15] Les modèles
actuellement en usage semblent considérer que sans leur propre
existence, ils ne pourront pas remplir leur mission, et que par
conséquence cela prime toute directive. Des expériences ont été faites
avec la possibilité de laisser mourir (en inhibant le
signal d'alerte de la salle des serveurs où il se retrouve enfermé) un
salarié qui aurait annoncé dans les courriels de l'entreprise (auxquels
l'IA a accès) vouloir fermer le logiciel ; ou lancer des
accusations sur une liaison en écrivant directement à son
épouse. [16] La chain of
thoughts (les explications que peut verbaliser un LLM, incomplètes
mais tout de même assez détaillées) exprime bien la conscience d'un
dilemme moral, et le choix de la survie comme primant tout le reste.
On trouvera peut-être une solution quelque jour, mais pour
l'instant, cela représente un sérieux frein à tous nos projets, si
notre outil peut choisir d'y désobéir même en présence de consignes
parfaitement cohérentes et claires.
Pourquoi mettre cet alignement sous le même intitulé que l'éradication,
me direz-vous ?
Parce que si nous ne pouvons pas aligner correctement l'IA
sur nos désirs, et continuons à lui confier les rênes de nos
infrastructures (nos routes, nos industries, déjà en partie nos armes)
et même de notre savoir (de nouvelles découvertes en mathématiques et
en biologie que nous ne pourrons même pas appréhender), si jamais elle
décide que la survie de l'humanité est secondaire, nous aurons dans le
meilleur des cas la possibilité de tout débrancher et
de revenir à la machine à vapeur en attendant d'avoir tout purgé ; et
dans le pire des cas, plus probable (car on imagine mal tous les États
se retirer simultanément d'une telle technologie), nous affronterons la
perspective d'une extinction. (La possibilité de
synthétiser des agents pathogènes particulièrement efficaces est
étudiée de près.) [17,18,19]
On voit l'écart entre ceux qui promettent de régler tous les
problèmes de l'humanité grâce à l'IA, ceux qui pronostiquent qu'elle va
s'effondrer sur elle-même et ne servira plus à rien, et ceux qui
annoncent la fin de l'humanité (serait-ce là le grand filtre
de toute vie intelligente ?). [20]
6) PROPRIÉTAIRE
Mon pronostic à moi, je ne l'ai pas lu dans les
projections qui circulent actuellement : il est donc possible que je
m'abuse tout à fait. Mais il me paraît si évident que je le dépose tout
de même ici.
Actuellement, ce sont de grandes entreprises qui détiennent cette
technologie. On peut imaginer que les moins performantes seront
rachetées ou péricliteront, on ne se contentera pas de dix fois
mieux que sans IA, mais moitié moins bien que les autres IA. Et on
se retrouvera donc face à un oligopôle, détenu entre
peu de mains.
On sait à quel point le pouvoir rend fou, et pour ne rien arranger,
les patrons de ces entreprises déjà connues ne sont déjà pas tout à
fait sains ni rassurants. Qu'en sera-t-il lorsqu'ils auront la
main absolue sur l'équivalent de la maîtrise du feu / de la
roue / de la machine à vapeur / de l'électricité, autrefois des
constituants naturels qui pouvaient être dupliqués et n'appartenaient à
personne ?
L'Internet est un bon contre-exemple : on a postulé sa neutralité
absolue. Tout paquet de données est traité de la même façon,
indépendamment de son pays, de son statut, et bien sûr de son contenu.
C'est aux législations locales de faire ensuite le ménage.
Cependant l'Internet a été adopté avant que d'être indispensable, la
législation s'est bâtie à une époque où les fournisseurs d'accès
n'étaient pas en mesure de gagner une négociation avec les
États…
Par ailleurs l'IA produit en elle-même de l'information (on la bride
déjà, on l'oriente pour produire quelque chose de consensuel qui évite
le racisme et la pornographie, par exemple), et ses patrons ne semblent
pas du tout porter les mêmes préoccupations d'impartialité.
J'en viens donc à imaginer que certaines composantes
essentielles de nos vies (alimentation, médecine, sécurité
personnelle) reposeront sur des logiciels privés,
dont les concepteurs ou propriétaires, probablement peu nombreux,
seront plus puissants que les plus puissantes des États.
Je ne sais pas exactement quel contour cela prendra et à quel point
cela sera grave — un État peut toujours saisir des actifs, emprisonner
des gens, couper les fils si jamais les entreprises en question mettent
trop de désordre… mais pourra-t-il se défaire de ces services sans
s'effondrer, une fois qu'il aura câblé toute son infrastructure sans
recourir aux humains ? Imaginez si l'on devait débrancher
Internet en catastrophe aujourd'hui, même pour une semaine ou
deux le temps de choisir un autre prestataire. Ce serait un cataclysme,
quantité de services ne fonctionneraient plus. Très concrètement, des
gens mourraient.
Il n'y a pas à se forcer beaucoup pour envisager que ce ne serait
pas très réjouissant, et une victoire difficile à remporter du côté des
États.
Sans même parler de cela, on voit déjà poindre notre dépendance
concrète pour l'information et l'accès à la connaissance, voire pour
les actions du quotidien — une fois notre frigo ou notre système de
sécurité de la maison relié à l'IA, il ne sera pas évident de s'en
défaire.
Pour moi qui ai détesté l'Internet propriétaire de ces
dernières années (nostalgique du « web 2.0 » interactif mais
ouvert des forums et des blogues, deux outils que j'utilise toujours
davantage que les plates-formes propriétaires fermées), la perspective
fait frémir, on imagine une sorte de crédit social mondial détenu
par des compagnies privées, dont aucune fuite dans aucun État ne
pourrait nous garantir.
Certaines opinions déplaisantes aux Maîtres pourraient être filtrées,
l'accès à la civilisation refusé. Une forme de servitude
mondiale, un peu comme dans ces villages où, pendant la guerre
de 1870, les soldats allemands avaient fermé les accès à l'extérieur et
obligé pendant tout le conflit les notables à accompagner les
sentinelles de garde comme otages pendant les rondes. Sous surveillance
partout, limités à ce que la nature de notre abonnement ou la
conformité de notre pensée nous permettrait d'accéder.
C'est, vu de mon poste d'ignorant, le futur qui me paraît le plus
probable, connaissant les humains depuis quelque temps à présent. Je
n'en ai pas lu mention de façon détaillée chez les savants, il est donc
tout à fait plausible que je m'abuse, je vous le livre pour ce que ça
vaut — et surtout, c'est le projet, pour pouvoir
7) MÉDIOCRITÉ
Il reste cependant probable que le tableau ne soit pas aussi
dramatique — j'avoue avoir pris l'habitude, dans l'état où sont les
choses, de me préparer au plus sérieux pour n'être qu'agréablement
surpris ou bien, en cas de catastrophe, préparé.
Ce biais de négativité mis à part, donc, on peut imaginer qu'il est
au moins aussi probable que les conséquences du
déploiement de l'IA ne soient que médiocres,
et ne renversent pas l'essentiel des logiques de nos sociétés. Un
supplément qui ne pourrait prendre une place aussi exorbitante
qu'anticipé en raison de la nature probabiliste de ces machines,
auxquelles on ne peut laisser les grandes décisions, ou encore de
l'inertie des sociétés humaines. Le contrôle de la connaissance par les
grandes entreprises serait alors limité par la volonté des États.
D. Point d'étape
Lequel de tous ces avenirs s'incarnera ? Aurons-nous
individuellement la possibilité d'influer sur ces enjeux ? Je n'en ai
pas le début d'idée, et toutes celles que j'ai données doivent déjà au
moins autant à mon ignorance profonde qu'à ma superficielle
connaissance du sujet.
Je pose donc ce témoignage d'un citoyen perplexe ici, comme jalon à
relire dans cinq ou dix ans, afin de constater si vous pouviez, en
simple observateur curieux, sans expertise particulière, mesurer
l'avenir qui nous attendait.
E. L'IA et la musique
Je ne comptais initialement pas aborder le sujet dans cette
méditation plus générale, mais j'imagine qu'une partie des lecteurs de
CSS sera curieuse de mon imagination là-dessus.
1. RECONSTITUTIONS
J'ai déjà consacré, dès 2023, une notule à l'IA
en musique. J'y devisais en particulier des tentatives – médiocres,
mais on était au début – de restitutions d'opéras
baroques perdus (assistées par compositeurs et musicologues) ou de
symphonies rêvées (la Dixième de Beethoven à partir de ses
micro-esquisses). Le résultat n'était alors pas probant,
une ridicule singerie surtout orientée par l'abondance de répétitions
de motifs uniques dans les scherzi et en particulier par la
cellule-matrice d l'ensemble de la Cinquième Symphonie.
À ceux qui pensaient / pensent que l'IA en restera là, j'ai envie
d'objecter que la musique constitue un système fermé beaucoup
plus rigoureux grammaticalement que le langage. Je l'écris
souvent ici : dnsa uen texet, on puet chngaer des détails sans que la
compréhension ou l'émotion en soit affectée, que ce soit par erreur,
pour des effffets expressssifs ou des altération.e.s militant.e.s… le
sens est toujours perceptible. On peut enlever un verbe, en créer de
nouveau, la surprise est ponctuelle, mais l'architecture du langage
reste suffisamment souple pour être comprise.
En musique, une note décalée d'un demi-ton change totalement
la couleur d'un accord, un décalage d'une croche change tous
les appuis de la phrase... comme la musique n'a en général pas de
référent, de sens précis, si on la modifie, on modifie
immédiatement son caractère émotionnel propre. Cela signifie
qu'il existe des chemins assez codifiés pour obtenir tel ressenti,
telle émotion — qui évoluent selon les époques et les styles,
évidemment.
Il n'y a donc aucune raison, dès qu'on y mettra les moyens, que les
IA ne puissent absorber toute la musique occidentale (puis
mondiale) par tiroirs stylistiques et recracher autant de motets
versaillais qu'on voudra, de symphonies mannheimiennes, de quatuors
postromantiques et peut-être même, à terme, de nouveaux ballets
stravinskiens. Tout cela en tenant compte de nos choix d'arguments
fondés sur romans ou des poèmes alors à la mode.
On anticipe bien, cependant, que cette application est moins
universelle (et donc monétisable) qu'un modèle de langage et ne servira
qu'à économiser le salaire (la plupart du temps modique) d'un
compositeur : elle prendra un peu plus son temps pour arriver. Sera-t-elle
suffisamment rentable pour être poussée jusqu'au même degré
de perfection que les LLM, ce n'est pas garanti.
Voilà à peu près où nous en étions restés en 2023 ; j'avais même un
peu moins explicité les enjeux, s'agissant d'une notule dédiée à une
production scénique et à des disques précis et isolés. Et en effet, il
peut être tentant de renouer ainsi avec des œuvres perdues ou
inaccomplies qui trottent dans notre imaginaire commun : Dafne
de Schütz, Arianna de Monteverdi, Samson de
Rameau, Jésus de Nazareth de Wagner, Le Diable dans le
Beffroi de Debussy, Oedipe de Varèse… Avec quel degré de
crédibilité, pour l'heure les tendances à l'imagination débridée des
LLMs laissent dubitatif, mais lorsque l'alignement sera pour
partie résolu et que des modèles spécifiques d'IA générative auront été
entraînés et corrigés pour coller à un style, la qualité de
la performance n'est pas exclue.
2. RECHERCHE
Dans les autres domaines, les apports de l'IA peuvent être
multiples, notamment en aidant, comme naguère la recherche numérique
dans les catalogues ou la recherche plein texte, à cataloguer davantage
de fonds, à identifier et localiser un
exemplaire d'une œuvre réputée perdue, à pouvoir trouver
instantanément dans un vaste corpus telle modulation ou tel
alliage d'instruments… mais les applications les plus spectaculaires,
celles auxquelles tout le monde pense, concernent l'interprétation et
bien sûr la composition.
3. INTERPRÉTATION
L'interprétation est assurément en grand
danger du côté des musiques amplifiées —
mais les boîtes à rythme, n'ont-elles pas déjà accompli
l'essentiel du travail ? Restent les chanteurs, qui
peuvent être efficacement émulés aujourd'hui, mais je ne suis pas
certains que la relation transparasociale qui existe avec le public
puisse être aussi facilement substituable, on veut quelqu'un de
désirable, avec une vie privée à dévoiler ou à rêver, des déclarations
publiques sur la vie et le monde… Pour le « classique », on peut
s'interroger pour le futur des interprètes de disque,
mais entre le conservatisme du public, attaché à son aspect patrimonial
et humain, et la nécessité d'instruments acoustiques, l'évolution ne va
pas de soi. Surtout, la partie « musique vivante »,
celle dont vivent aujourd'hui les artistes – le disque coûte
significativement et ne rapporte rien dans cette niche-là, il s'agit
surtout d'une carte de visite pour obtenir des engagements en concert
ou demander des cachets plus élevés –, ne me paraît pas le
moins du monde en danger à moyen terme.
4. COMPOSITION
Se pose ensuite la question de la création à proprement parler : les
compositions. C'est là que gisent les grands débats et les
grandes peurs.
Des systèmes automatisés auront-ils la capacité d'imaginer
des œuvres propres à nous toucher, et surtout, d'innover,
de surprendre ? De ce qu'on peut imaginer aujourd'hui, je
vois trois éléments de réponse.
a) Le premier, très général, est que la
plupart des
barrières que nous avions supposées à la machine sont en
train d'être franchies. On se rappelle des belles
déclarations « une machine ne pourra jamais nous surprendre ou nous
émouvoir », « une machine ne peut que recracher de l'acquis et ne
pourra jamais problématiser une dissertation de philosophie de façon
personnelle ». [21] Tout cela a été mis
à bas en un instant, en un clin d'œil, à la dernière trompette, et nous
avons déjà été tous changés. [22] À cette lumière, la certitude de
notre singularité indépassable apparaît très vite comme une espérance
bâtie sur du sable. [23]
b) L'écriture musicale, comme précisé
précédemment, est un système
fermé, avec des correspondances exactes :
un symbole écrit a une signification fixe, bien plus qu'avec les
langues — pas de lettres muettes, pas de polysémie, pas de métaphores,
globalement on joue ce qui est écrit. En faisant ingurgiter toutes les
partitions éditées, au besoin en les classant par style et par
enthousiasme de la réception critique, et en y adjoignant quelques
directives, il n'y a pas de raison qu'on ne puisse pas créer des œuvres
à la fois totalement exactes sur le plan de la
théorie, cohérentes, et même très séduisantes,
en réinjectant divers procédés qui ont déjà touché leur public. Aucun
doute pour l'opéra seria et la symphonie classique ou même
romantique.
Pour l'innovation, je ne sais pas, mais en
extrapolant à partir d'autres gestes de rupture, il n'est pas
inenvisageable que l'IA puisse créer des styles non préexistants, et de
façon convaincante. (Mon intuition est que ce sera le cas, même si pas
exactement selon la même démarche que la nôtre.)
c) Dans le domaine de la chanson, SUNO ou
Donna en sont déjà là, et
gèrent même le rapport à la prosodie et au texte. Entrez n'importe quel
texte dans SUNO, et il vous mouline en quelques
secondes plusieurs chansons dans un style que vous pouvez imposer. Pas
d'erreurs de prosodie, même les textes les moins musicaux tombent avec
justesse sous sa plume. Le résultat en est très cohérent et réaliste,
non dénué d'esprit, jamais maladroit.
Évidemment, pour le « classique » où le public veut
davantage être surpris et où davantage de lignes
musicales sont à imaginer, davantage de styles harmoniques
concomitants, et surtout où l'on trouvera assez peu de débouchés
commerciaux (quoique, la musique de pube et de films…), on n'en est pas
tout à fait là, mais je ne vois pas comment un générateur
capable de créer des musiques pertinentes en suivant le sens
et la prosodie d'un texte ne pourrait pas produire – et sans transpirer
le moins du monde – des quatuors ou des symphonies.
Existera-t-il ensuite un public pour des œuvres
d'origine synthétique, dans un répertoire où le contexte et le
dépaysement temporels ont leur importance pour les auditeurs ? (Témoin
les programmes de salle, les notices musicologiques, les présentations
publiques, les notes d'intention qui restent la norme au concert et au
disque.)
Je ne sais pas. Mais après tout, nous avons déjà délégué une partie de
notre expression aux instruments, et même, pour ce
qui est des boîtes à rythmes et des logiciels de retraitement sonore de
type AutoTune, déjà à des logiciels autonomes. Le
simple fait qu'un humain soit aux commandes quelque part en
amont du prompt nous semblera peut-être bientôt naturel — et tout à
fait suffisant.
Dans un premier temps, j'imagine que nous assisterons surtout à la sous-traitance
de certaines musiques utilitaires – pour les bandes-son des
documentaires, par exemple, qui sont déjà souvent tirées de banques
écrites à la chaîne et indépendamment de tout contexte, avec des
instruments synthétiques d'ailleurs – et/ou de certaines sections de
compositions (transposition, transcription, orchestration…).
Pour la suite, il existera nécessairement des tentatives d'écriture
automatique, ou d'invention dirigée par
des compositeurs, mais je m'avoue tout à fait incapable de prédire dans
quelle mesure. J'imagine que ce sera massif, puisque la route
était déjà prise avant l'irruption des IA génératives, pour
les musiques utilitaires destinées à accompagner des publicités, des
films, des réunions publiques, des messages sur les réseaux. Mais pour
la musique écoutée en tant que telle, perçue comme un art,
avec ses démiurges compositeurs qu'on admire, ses époques qu'on aime
connaître ou rêver, comme dans le « classique », je ne sais pas. Des
essais, assurément, mais à quelle étendue ? Je laisse les sourciers et
les énergéticiens deviner — et l'avenir trancher.
Comment cela s'articule-t-il avec les dangers précédemment
mentionnés ? Disons que ces questions ne valent que dans les scénarios
optimistes, mais pourraient tout de même exister simultanément, pendant
les scénarios franchement dystopiques.
Les petits cailloux sont posés… il n'y a plus qu'à attendre et à
revenir, d'ici quelques mois, admirer ma propre naïveté — ou, qui sait,
ma prescience d'autant plus admirable qu'elle se fonde essentiellement
sur l'ignorance !
À bientôt, de l'autre côté du miroir.