banner

Blog

Oct 13, 2023

Comment l'IA change l'écriture

En 1950, l'informaticien Alan Turing a proposé ce que nous appelons maintenant le test d'intelligence artificielle de Turing, qui dit qu'une machine pourrait "penser" si elle peut passer pour humaine dans une conversation dactylographiée. Même si vous êtes familier avec cette histoire, vous ne savez peut-être pas que Turing s'imaginait commencer son test par une demande littéraire : "S'il vous plaît, écrivez-moi un sonnet sur le sujet du pont du Forth." Il a prédit une réponse évasive mais très humaine d'un futur ordinateur: "Comptez-moi sur celui-ci. Je n'ai jamais pu écrire de poésie." C'est exactement ce que dirait mon père.

La semaine dernière, j'ai envoyé la même requête à ChatGPT, le dernier chatbot à intelligence artificielle d'OpenAI. "Sur le Firth of Forth, un pont se dresse", commençait-il. En moins d'une minute, le programme avait créé intégralement un sonnet shakespearien rimé. À l'exception des sujets offensants ou controversés que ses filtres de contenu bloquent, ChatGPT composera des vers originaux sur n'importe quel thème : amour perdu, chaussettes perdues, emplois perdus à cause de l'automatisation. Des outils comme ChatGPT semblent prêts à changer le monde de la poésie - et bien d'autres choses - mais les poètes ont aussi beaucoup à nous apprendre sur l'intelligence artificielle. Si les algorithmes deviennent bons pour écrire de la poésie, c'est en partie parce que la poésie a toujours été une affaire d'algorithmes.

Même les poètes les plus rebelles suivent plus de règles qu'ils ne voudraient l'admettre. Un bon poète comprend les normes grammaticales et sait quand les enfreindre. Certains poèmes riment selon un schéma, certains irrégulièrement et d'autres pas du tout. Les règles plus subtiles de la poésie semblent difficiles à programmer, mais sans quelques normes de base sur ce qu'est un poème, nous ne pourrions jamais en reconnaître ou en écrire un. Lorsque les écoliers apprennent à imiter la structure d'un haïku ou le thrum court-long du pentamètre iambique, ils apprennent effectivement à suivre les contraintes algorithmiques. Cela devrait-il nous surprendre que les ordinateurs puissent le faire aussi ?

Mais compte tenu du fonctionnement de ChatGPT, sa capacité à suivre les règles des sonnets semble un peu plus impressionnante. Personne ne lui a enseigné ces règles. Une technologie antérieure, appelée IA symbolique, impliquait de programmer des ordinateurs avec des axiomes pour des sujets spécifiques, tels que la biologie moléculaire ou l'architecture. Ces systèmes fonctionnaient bien dans des zones étroites mais manquaient d'adaptabilité plus générale. ChatGPT est basé sur un nouveau type d'IA connu sous le nom de grand modèle de langage (LLM). Simplifiés à l'extrême, les LLM analysent d'énormes quantités d'écriture humaine et apprennent à prédire ce que devrait être le mot suivant dans une chaîne de texte, en fonction du contexte. Cette méthode de devinette de mots permet à l'IA d'écrire des essais d'admission à l'université cohérents, des traitements approximatifs pour les scénarios de films et même des sonnets sur les ponts en Écosse, dont aucun n'est programmé directement.

Une critique fréquente des LLM est qu'ils ne comprennent pas ce qu'ils écrivent; ils font juste un excellent travail pour deviner le mot suivant. Les résultats semblent plausibles mais manquent souvent la cible. Par exemple, j'ai demandé à ChatGPT de m'expliquer cette blague : "Quelle est la meilleure chose à propos de la Suisse ? Je ne sais pas, mais le drapeau est un gros plus." Il a répondu que la "référence au drapeau" est amusante car elle "contredit l'attente selon laquelle la réponse serait quelque chose liée aux attributs positifs du pays". Il a raté le jeu de mots sur "plus", qui est au cœur de la blague. Certains chercheurs affirment que les LLM développent des connaissances sur le monde, mais la plupart des experts disent le contraire - que même si ces technologies écrivent de manière cohérente, il n'y a personne à la maison.

1/3

Mais il en est de même du langage lui-même. Comme le dit le poète moderniste William Carlos Williams, "Un poème est une petite (ou grande) machine faite de mots." Lorsqu'un vers passionné de Keats ou de Dickinson nous donne l'impression que le poète nous parle directement, nous subissons les effets d'une technologie appelée langage. Les poèmes sont faits de papier et d'encre - ou, de nos jours, d'électricité et de lumière. Il n'y a personne "à l'intérieur" d'un poème de Dickinson, pas plus qu'un par ChatGPT.

Bien sûr, chaque poème de Dickinson reflète son intention de créer du sens. Lorsque ChatGPT associe des mots, il n'a aucune intention. Certains soutiennent que les écrits des LLM n'ont donc aucun sens, seulement l'apparence de celui-ci. Si je vois un nuage dans le ciel qui ressemble à une girafe, je le reconnais comme une ressemblance accidentelle. De la même manière, selon cet argument, nous devrions considérer les écrits de ChatGPT comme ressemblant simplement à un langage réel, dénué de sens et aléatoire comme des formes de nuages.

Les auteurs expérimentaux nous ont donné des raisons de douter de cette théorie depuis le début du siècle dernier, lorsque Tristan Tzara et d'autres ont cherché à éliminer les décisions conscientes de leur travail. Leurs techniques ressemblent maintenant à des versions rudimentaires des principes qui sous-tendent les LLM. Tzara a tiré des mots d'un chapeau pour composer un poème. Dans les années 1950, William S. Burroughs a popularisé la «méthode du découpage», qui consiste à découper des mots dans les journaux et à les réassembler en littérature. À peu près à la même époque, les linguistes ont développé l'approche du "sac de mots" pour modéliser un texte en comptant le nombre de fois où chaque mot apparaît. Les LLM effectuent des analyses beaucoup plus complexes, mais la randomisation aide toujours ChatGPT à éviter les sorties prévisibles, tout comme elle a aidé Burroughs.

Il y a une vieille blague parmi les chercheurs en intelligence artificielle : "l'intelligence artificielle" est tout ce que les ordinateurs ne peuvent pas encore faire. L'exemple classique est le jeu d'échecs. Le rêve d'automatiser les échecs remonte à 1770, lorsqu'un joueur robotique appelé le Turc mécanique éblouit les cours d'Europe, grâce à un maître d'échecs humain caché sous le bureau. En 1948, Turing a écrit un programme d'échecs, mais il était trop complexe pour fonctionner sur du matériel des années 1940. Enfin, en 1997, un supercalculateur a vaincu le champion du monde d'échecs Garry Kasparov. Depuis, les ordinateurs sont devenus tellement meilleurs que les humains que le champion du monde actuel, Magnus Carlsen, considère qu'il est inutile et déprimant d'y jouer. Il semble peut-être moins magique pour un ordinateur de gagner aux échecs qu'auparavant, mais à mesure que la poésie de l'IA continue de s'améliorer, nous devons nous rappeler que les échecs sont restés un plaisir pour des millions d'humains.

Les LLM représentent une nouvelle phase dans l'écriture assistée par ordinateur, mais les prochaines étapes de la poésie IA restent floues. Comme Turing, le polymathe Internet Gwern Branwen utilise la poésie comme test, demandant aux IA d'imiter Shelley, Yeats et d'autres. Voici un ersatz de Whitman : "O terres ! Ô terres ! être en croisière, être en mer ! / Continuer à visiter Niagara, continuer, continuer !" Au fur et à mesure que l'IA s'améliore, ces imitations s'améliorent également. Pendant ce temps, la poétesse futuriste Sasha Stiles collabore avec des LLM pour annoncer une nouvelle ère posthumaine. "Dans dix ans", écrit-elle, "nous saurons implanter le QI, / insérer des langues entières. Je serai alors une superpoète, // micropuce pour lire les odes neurales, / histoire des sonnets et des aubades. Bien que visuellement époustouflant, son travail néglige parfois les inconvénients politiques, environnementaux et pratiques de ces technologies. L'avenir de la poésie IA n'est pas encore arrivé, mais les LLM nous disent que ce sera bientôt le cas.

Parmi les meilleures poésies récentes sur l'IA figure "Travesty Generator" (2019) de Lillian-Yvonne Bertram, qui emprunte son titre à un programme générateur de poèmes que le critique Hugh Kenner a co-écrit dans les années 1980. Dans les mains de Bertram, la "travestie" fait également référence aux violentes injustices contre les Noirs auxquelles ces poèmes répondent. Un travail comme celui de Bertram est particulièrement urgent alors que les chercheurs étudient comment l'IA risque d'amplifier le racisme et d'autres haines déjà répandues en ligne.

Quand j'ai montré à mes amis le sonnet de ChatGPT, ils l'ont qualifié de "sans âme et stérile". Malgré le respect de toutes les règles des sonnets, le poème est cliché et prévisible. Mais le sonnet moyen d'un humain est-il meilleur ? Turing a imaginé demander à un ordinateur de la poésie pour voir s'il pouvait penser comme une personne. Si nous nous attendons maintenant à ce que les ordinateurs écrivent non seulement des poèmes mais de bons poèmes, alors nous avons mis la barre beaucoup plus haut.

Nous participons au programme Amazon Services LLC Associates, un programme publicitaire d'affiliation conçu pour nous permettre de gagner des frais en nous connectant à Amazon.com et aux sites affiliés.

PARTAGER