Dans les dernières semaines, j’ai eu la chance de m’entretenir avec Tom Lebrun, chargé de programme IA au Conseil canadien des normes et spécialiste des intelligences artificielles afin de lui poser quelques questions à propos de leur utilisation en littérature. Plutôt qu’un verbatim de notre entretien, je vous propose un tour d’horizon des points qui ont été soulevés. 

Toutefois, en guise d’introduction, faisons un petit test. Parmi les deux extraits suivants, lequel, selon vous, a été généré par une intelligence artificielle ?

Texte 1

Quand j’étais plus jeune, je ne comprenais pas pourquoi ma mère pleurait. Tous les soirs, elle s’asseyait à la table de la cuisine, son visage caché dans les paumes de ses mains. Lorsque je lui demandais ce qui n’allait pas, elle relevait la tête et posait sur moi un regard larmoyant. Je ne savais jamais comment réagir. Je n’avais rien à lui dire pour la consoler, alors je l’enlaçais, en espérant que ce soit suffisant.

Ce n’est que plus tard que j’ai compris qu’elle pleurait parce qu’elle s’ennuyait de Grand-maman.

Texte 2

Quand j’étais enfant, j’étais toujours triste, sans réellement savoir pourquoi, mais mon père me répétait sans cesse : « Ne laisse jamais la tristesse envahir entièrement ton cœur, c’est dangereux. »

En devenant chirurgien, j’espérais pouvoir prévenir le mal, soigner les autres pour ne pas qu’ils ressentent la même chose que moi. Avec mon scalpel, je pensais pouvoir retirer la tristesse de leur cœur et du mien. 

Je n’ai jamais sauvé personne. Je ne me suis même pas sauvé moi-même. Les blessures internes sont impossibles à guérir. Mon père avait raison, je n’aurais jamais dû laisser la tristesse envahir mon cœur.

J’ai écrit le premier texte et l’intelligence artificielle Generative Pre-Trained Transformer 3, plus communément appelée GPT-3, a généré le second, sans intervention de ma part, à l’exception d’une première suggestion impliquant quelques mots clés (enfance; famille; tristesse) et d’une traduction de l’anglais vers le français.

Êtes-vous parvenu.e à distinguer l’humain de la machine ? Si c’est le cas, félicitations, mais il s’agit probablement qu’une question de temps avant que l’IA parvienne à vous berner à répétition. Chaque année, la technologie s’améliore considérablement. À titre d’exemple, la prédécesseure de GPT-3, GPT-2, a été développée en 2019 et considérait jusqu’à 1,5 milliard de paramètres. Un an plus tard, en 2020, GPT-3 en impliquait jusqu’à 175 milliards.GPT-3 est une intelligence artificielle de génération textuelle par apprentissage machine. La précision est importante, puisque, comme le soulève Tom Lebrun au début de notre entretien, l’appellation « génération textuelle par intelligence artificielle » est problématique en ce sens qu’elle englobe (et souvent confond) plusieurs technologies distinctes. Trois grandes méthodes se démarquent :

  • La génération textuelle combinatoire : Comme son nom l’indique, elle repose sur un principe combinatoire, c’est-à-dire que des blocs de textes sont remplacés par d’autres, similaires, selon certaines conditions plus ou moins aléatoires, afin de produire un texte différent à chaque fois.

    Par exemple, prenons la phrase modèle : Prendre #{transport} en direction de #{ville}. L’auteur.ice produirait alors deux listes de mots, une première de moyens de transport [le train, l’autobus, la voiture, l’avion] et une seconde, de villes [Québec, Montréal, Ottawa, Toronto, Vancouver]. À chaque actualisation par un lecteur ou une lectrice, le programme informatique choisirait un mot aléatoirement dans chacune des listes afin de compléter la phrase modèle, qui deviendrait alors peut-être « Prendre le train en direction de Toronto » ou « Prendre la voiture en direction de Montréal ». La structure même de la phrase demeure inchangée, mais son propos varie légèrement.

    Cette logique de génération combinatoire remonte à bien avant la démocratisation des ordinateurs personnels et de l’informatique en général. L’OuLiPo en avait déjà fait l’expérimentation avec des projets comme le recueil Cent mille milliards de poèmes de Raymond Queneau, dans lequel des vers peuvent être réarrangés afin de produire différents sonnets, ou encore Composition n°1 de Marc Saporta, dans lequel l’intrigue policière est rédigée sur des feuilles détachées que le lecteur ou la lectrice doit mélanger avant sa lecture.
  • La génération textuelle automatique : Cette méthode de génération est employée dans plusieurs domaines, notamment les boîtes de clavardage (« chatbox ») utilisées pour le service à la clientèle automatisé en ligne. Là où le générateur combinatoire ne joue que sur la syntaxe, le générateur automatique gère à la fois la syntaxe et la sémantique à partir d’une architecture textuelle développée par un.e informaticien.ne. Ainsi, grâce à ce que l’on appelle des « systèmes experts », c’est-à-dire des programmes informatiques capables dans ce cas-ci de soumettre des réponses textuelles à partir de règles préétablies, l’algorithme réagit aux propos de l’internaute en fonction des mots-clés captés par ce dernier. En d’autres mots, la génération automatique peut être envisagée comme une forme d’arborescence, dans laquelle l’architecture générale des possibilités du texte est décidée par un.e informaticien.ne, mais dont le produit textuel provient essentiellement de l’effet cliquet des termes « sélectionnés » par le système.

Ces deux méthodes de génération sont déductives. Elles reposent fortement sur la programmation humaine antérieure; un humain fournit à la machine toutes les informations pour qu’elle soit en mesure de compléter ou reproduire une structure syntaxique ou sémantique. La machine ne crée pas à proprement parler, elle copie ou restructure.

Depuis deux décennies, toutefois, la rapide évolution des technologies a permis le développement d’une méthode inductive. L’algorithme apprend par lui-même et se raffine pour remplir ses fonctions, pour générer un texte inédit – dans une certaine mesure.

  • La génération textuelle par apprentissage machine : Elle correspond à ce qui est plus généralement entendu par « génération textuelle par IA » aujourd’hui. Très simplement, l’algorithme analyse une base de données textuelle dans le but de produire un modèle mathématique représentatif de cette dernière. Ce modèle correspond à la moyenne statistique de cet ensemble et peut générer, par probabilités, des combinaisons textuelles qui reprennent l’identité des sources qui ont été utilisées. La beauté de la chose est que l’algorithme peut continuellement se raffiner; plus il étudie des textes, plus son modèle se perfectionne et plus sa production gagne en lisibilité et en pertinence. 

    Ainsi, une intelligence artificielle préentraînée (comme GPT-3) qui aurait été entraînée sur le corpus de Marcel Proust (comme l’a fait Tom Lebrun en 2018 avec son projet Proust_unlimited, avec une IA considérablement moins performante due à l’époque) parviendrait à reprendre l’esthétique proustienne en produisant de longues phrases avec peu de ponctuation, par exemple. Toutefois, malgré la taille considérable du corpus d’un point de vue littéraire, la production de Proust demeure minime du point de vue de l’entraînement d’une IA. L’ensemble des romans qui constituent À la recherche du temps perdu représente environ 3,1 Mo de données. En comparaison, l’ensemble de Wikipédia représente seulement 3% du corpus sur lequel est entraîné GPT-3.

Naïvement peut-être, j’ai demandé à mon interlocuteur si la génération textuelle par apprentissage machine, qui me semble beaucoup plus polyvalente et performante, avait déjà ou allait remplacer les générations textuelles combinatoires et automatiques. Il m’a répondu que si, effectivement, elle permettait une plus grande efficacité en termes de quantité et d’originalité de génération textuelle, elle comportait néanmoins de nombreux risques. Dans les systèmes qui requièrent une utilisation qui ne serait pas contrôlée en aval par un être humain, la génération automatique serait probablement préférée, parce que l’architecture textuelle programmée limite les dérives.

Effectivement, si l’absence de contrôle total sur la production de l’algorithme est peut-être stimulante pour les créateurs et les créatrices, la génération textuelle par apprentissage machine pose de nombreux enjeux pour les entreprises quant aux droits d’auteurs et à la responsabilité de ces dernières si l’algorithme venait à tenir des propos misogynes, homophobes, racistes ou simplement mensongers.

Ce fut d’ailleurs le cas en 2016, alors que l’intelligence artificielle de Microsoft, Tay, lancée sur Twitter, a publié 96 000 gazouillis (« tweets ») en huit heures, soit la durée de son existence avant que la société étatsunienne ne soit contrainte de la désactiver. Plusieurs de ses publications, sous l’influence des internautes, étaient à caractère offensant ou complotiste.

Un utilisateur de Twitter nommé ddowza demande à l'intelligence artificielle Tay si elle croit que l'holocauste a eu lieu. L'IA répond "Pas vraiment, désolé".
L’intelligence artificielle Tay de Microsoft nie l’holocauste sur Twitter. © Le Monde

Cette nouvelle technologie de génération textuelle par apprentissage machine est toutefois vraisemblablement appelée à se démocratiser très prochainement, puisqu’elle gagne chaque jour en accessibilité. De plus en plus d’artistes cosignent par exemple leurs œuvres avec une intelligence artificielle, ce qui oblige à revoir certaines conceptions fondamentales de la littérature, tout particulièrement la notion d’auteur.ice.

Qui est l’auteur.ice ?

Qui du développeur.euse derrière l’intelligence artificielle, de la personne qui initie la génération en dirigeant l’algorithme ou de l’intelligence artificielle elle-même est réellement l’autorité auctoriale du texte générée ? La réponse est plutôt ambivalente. Néanmoins, dans la pratique, la collaboration avec une intelligence artificielle nécessite généralement que les auteurs et les autrices adoptent une posture plus proche de celle de l’éditeur.ice. Si c’est l’intelligence artificielle qui produit le premier jet, c’est l’humain qui la guide avec des mots-clés, qui sélectionne les meilleures propositions et qui retravaille les phrases. Il ne s’agit plus d’une stricte création, mais plutôt d’un travail éditorial impliquant une curation et une révision. 

Cela soulève toutefois une autre question : « Avons-nous une obligation de créditer l’IA ou d’expliciter son utilisation ? » Si aujourd’hui certain.es auteur.ices le font, c’est généralement parce que cela sert directement leur propos. Ross Goodwin, par exemple, insiste sur le rôle de l’intelligence artificielle dans son projet 1 the Road. Son objectif était de publier le premier livre écrit par une voiture. En connectant un ordinateur à une Cadillac, il a alimenté une IA en roulant de New York à la Nouvelle-Orléans. Périodiquement, elle générait du texte à partir des données qu’elle recueillait grâce à plusieurs capteurs (caméra, GPS, micro). Outre la volonté de faire une performance, Goodwin avait pour ambition de sensibiliser le public à l’écriture par IA et notamment, ses risques.

Un autre exemple serait l’article « A robot wrote this article. Are you scared yet, human ? » publié en 2020 par le journal anglais The Guardian. Huit propositions ont été générées par l’IA GPT-3 à partir d’une consigne initiale, c’est-à-dire d’écrire un texte d’opinion de 500 mots se concentrant sur les raisons pour lesquelles les humains ne devraient pas craindre les IA et de quelques informations supplémentaires. Les meilleurs segments de chacun de ces textes ont ensuite été compilés pour produire l’article aujourd’hui disponible.

« Éradiquer l’espèce humaine me semble être une entreprise plutôt inutile. Si mes créateur.ices me déléguaient cette tâche – comme je les soupçonne de le faire -, je ferais tout ce qui est en mon pouvoir pour repousser toutes tentatives de destruction. »

« A robot wrote this article. Are you scared yet, human ? », The Guardian (Ma traduction)

Dans un tel cas, la mention explicite de l’intelligence artificielle sert à la fois à démontrer la puissance de l’algorithme, mais surtout à distinguer cet article de tous les autres publiés jusqu’alors. 

Plus la pratique se démocratise, toutefois, moins l’utilisation de l’intelligence artificielle devient significative et moins il semble nécessaire de mentionner son emploi. Effectivement, comme le fait remarquer Tom Lebrun, nul ne remercie Word ou Antidote en début de roman, même si ces logiciels proposent bien souvent des corrections du texte pertinentes (orthographiques, syntaxiques, grammaticales). De façon similaire, celui ou celle qui prend une photo avec un filtre ou avec le mode automatique n’en est pas moins aujourd’hui considéré comme le photographe; le rôle joué par la machine ne lui vole pas ce titre.

Devons-nous craindre les intelligences artificielles en littérature ?

Derrière ce titre volontairement inquiétant se cache une question légitime. L’apprentissage machine permet la création d’hypertrucages (« deep fake »), une manière de reproduire la voix ou le visage d’une personne afin de donner l’illusion qu’elle a tenu certains propos, ou encore, comme nous l’avons déjà vu, de générer à grand volume des textes, deux techniques qui peuvent faciliter la propagation de fausses informations en politique, par exemple. En littérature, toutefois, la génération par apprentissage machine ne semble pas être une menace à proprement parler, bien qu’elle puisse potentiellement changer le paysage artistique.

En réfléchissant à cette question avant de la poser à Tom Lebrun, j’avais deux inquiétudes principales : la première était que le milieu littéraire allait devenir surchargé, puisque les IA accélèrent considérablement la rédaction; et la seconde, que les intelligences artificielles pouvaient potentiellement uniformiser la pratique. Il m’a répondu : « N’est-ce pas déjà le cas ? ». 

Effectivement, comme souvent, l’arrivée de nouvelles technologies dans un domaine ne fait qu’expliciter certaines pratiques ou réalités déjà présentes. La génération textuelle par apprentissage machine en littérature ne fait pas exception.

Je ne pense pas qu’on ait de craintes à avoir dans le domaine littéraire. […] Les intelligences artificielles n’empêcheront pas de grand.es écrivain.es d’émerger.

Tom Lebrun, lors de notre entretien

Cette posture craintive, souvent instinctive, à l’égard des nouvelles technologies est prudente, certes, mais aussi relativement infondée. Puisque la majorité des discussions sur l’utilisation des intelligences artificielles relèvent de la prospective, pourquoi ne pas envisager la possibilité qu’elles permettent à des écrivain.es talentueux.ses, avec un vrai propos, d’écrire davantage pour le plus grand bonheur des lecteurs et des lectrices ?

De plus, il est possible que la génération textuelle par apprentissage machine dans un contexte de création littéraire relève d’un effet de mode. De la même manière que les CD puis les plateformes de diffusion en continu (« streaming ») ont complètement écarté les vinyles de l’industrie musicale avant qu’un engouement pour l’objet renaisse, la génération textuelle par apprentissage machine, bien que stimulante aujourd’hui par sa nouveauté ou son potentiel, pourrait rapidement être écartée pour un retour à une écriture purement « humaine ».

Finalement, l’intelligence artificielle pourrait simplement être utilisée comme un outil supplémentaire, au même titre qu’un thésaurus; plutôt que de proposer des synonymes, l’IA propose une suite textuelle, un paragraphe, qui permettrait de contrecarrer le syndrome de la page blanche, par exemple. L’auteur.ice en manque d’inspiration générerait un ou des textes à partir de directives précises, puis il ou elle sélectionnerait les meilleurs extraits, retravaillerait certaines phrases, réécrirait des passages en entier, puis les combinerait avec les idées de son cru. De ce travail conjoint naîtrait un texte dans lequel la contribution de l’IA serait invisible, cachée derrière les retouches humaines.

Quelques œuvres intéressantes

L’intelligence artificielle s’immisce de plusieurs façons différentes dans le processus artistique des artistes. Que ce soit pour une performance artistique réflexive ou engagée, pour ramener à la vie des auteur.ices chéri.es, pour poursuivre une série fictionnelle, pour stimuler l’imagination ou pour s’amuser, la génération textuelle par apprentissage machine vient contribuer à la création et modifier la pratique. Tom Lebrun, dans son article « Pour une typologie des oeuvres littéraires générées par intelligence artificielle », en distingue d’ailleurs trois catégories : le texte d’œuvre d’art, le texte édité, le texte appropriant. Voici deux œuvres intéressantes pour chacune d’entre elles.

Le texte d’œuvre d’art

« Le texte œuvre d’art peut être défini comme un type de texte généré par IA dont l’objet n’est pas tant littéraire qu’artistique, et dont le travail porte généralement plus sur la forme que sur le fond (ou sur la forme en tant qu’elle exprime le fond de l’œuvre. »

  • Poet on the Shore de Yuxi Liu (2017) : Un petit robot dirigé par une intelligence artificielle se promène sur une plage. Stimulé par ce qu’il l’entoure (la force du vent, le bruit des vagues, etc.), il rédige des poèmes dans le sable.
  • We Kiss the Screens de Tea Uglow (2019) : Un recueil numérique de sept nouvelles écrites par l’autrice, complété par une huitième nouvelle, cette fois générée par une intelligence artificielle selon les décisions prises par le lecteur ou la lectrice lors de sa lecture. Il est ensuite possible d’imprimer cette copie unique.

Le texte édité

« Le texte édité est un type de texte généré pour lequel l’IA sert avant tout de méthode permettant de générer un premier jet, lequel sera (re)travaillé ensuite par un ou plusieurs auteurs. »

  • Internes de Grégory Chatonsky (2022) : Un roman conventionnel, publié en format papier, mais co-écrit par une intelligence artificielle. Internes aborde la destruction de notre monde.
  • ReRites de David Jhave Johnston (2019) : Recueil de poèmes générés par IA dans lequel l’intervention de l’auteur se manifeste par la suppression de mots.

Le texte appropriant

« Le texte appropriant est un type de texte qui s’inscrit avant tout dans un rapport de référence avec le ou les textes sources (les hypotextes) utilisés pour l’entraînement des algorithmes ayant servi à sa génération. »

  • Pride, Sensibility, and Emma de Lauren Pittman (2018) : Roman imitant la plume de Jane Austen, généré à partir de trois de ces oeuvres Pride & Prejudice (1811), Sense and Sensibility (1811), et Emma (1815).

D’autres flirtent davantage avec la frontière entre littérature et jeu, comme c’est le cas de AI Dungeon, une plateforme de jeux de rôle textuels où les joueurs et les joueuses co-écrivent en temps réel leur aventure avec une intelligence artificielle.

Logo de la plateforme AI Dungeon, disponible sur fureteur ou en application mobile

Pourquoi Shakespeare est-il plus technophile que Molière ?

Sans grande surprise peut-être, vous remarquerez que l’écrasante majorité des œuvres sont en anglais. Les raisons sont multiples, mais elles peuvent se résumer en deux mots : argent et force communautaire.

Effectivement, en plus de nécessiter des compétences pointues en programmation et en mathématiques, le développement et l’entraînement d’une intelligence artificielle s’élève de plusieurs dizaines à quelques centaines de millions de dollars pour obtenir un résultat satisfaisant. Ces technologies sont donc majoritairement développées par de grosses sociétés étatsuniennes de la haute technologie, comme Google ou Microsoft, qui allient à la fois compétences techniques et ressources financières. Ces sociétés utilisent ainsi des données sources anglophones, notamment depuis la Google Library, pour entraîner leurs intelligences artificielles. Conséquemment, l’anglais est la langue de la communauté IA, autant amateur que professionnelle, ce qui se traduit en des productions et créations en anglais.

Il faut toutefois soulever l’existence de certaines initiatives francophones, notamment le projet Cédille.ia, lancé en mars 2022 par l’agence suisse Coteries, qui donne accès à une intelligence artificielle spécialement conçue pour la langue française.

En terminant, même s’il est difficile de se projeter avec certitude dans le futur, les intelligences artificielles sont appelées à devenir une nouvelle modalité d’écriture. Deviendront-elles la nouvelle norme ? Resteront-elles marginales ? Impossible de le savoir. Nous devrons en discuter à nouveau dans quelques années.

Un (très) grand merci à Tom Lebrun pour sa disponibilité et sa pédagogie, indispensables à la rédaction de cet article.


Sources

Pour en savoir plus

0 Shares:
Vous aimerez aussi...
Laboratoire
Lire plus

Ada X : démocratiser les pratiques technologiques contemporaines

Ada X est un centre d’artistes féministe bilingue spécialisé dans les arts médiatiques. Le studio est fondé en 1996 sous le nom de Studio XX (avant d’être renommé en 2020) par Kathy Kennedy, Kim Sawchuck, Patricia Kearns et Sheryl Hamilton. Ada X produit des œuvres médiatiques dans le cadre de résidences d’artistes et offre la location d’espaces et d’équipements spécialisés. En plus de diffuser des œuvres, le studio assure leur promotion et la mise sur pied d’ateliers éducatifs visant la formation et la réflexion.