ChatGPT — « G » pour Girard

« Demandez, et l’on vous donnera ; cherchez, et vous trouverez » (Matthieu, 7 : 7). Ainsi parlait, jadis, le Christ — et ainsi parle, désormais, l’Intelligence Artificielle (IA). Mais avec le développement rapide et massif des « chatbots » (« agents conversationnels ») dans le sillage du plus emblématique d’entre eux, « ChatGPT », la « religion technologique », dont Wolfgang Palaver avait donné une première analyse dans sa conférence COV&R de 2021, acquiert une nouvelle dimension. C’est qu’un « chatbot » ne se contente pas de répondre à nos questions de manière linéaire, avec une fin précise en vue ; il nous invite à nouer avec lui une véritable conversation, potentiellement infinie.

Plutôt qu’à une religiosité diffuse, cette dimension dialogique nous renvoie, plus précisément, au sacré tel que le définit René Girard sur le fondement de sa théorie du désir mimétique. En effet, on se souvient que cette théorie, avec Mensonge romantique et vérité romanesque, trouve son origine dans le roman ; or, depuis les travaux fondateurs de Mikhaïl Bakthine, le roman se définit précisément, en théorie littéraire, comme le genre dialogique par excellence. D’une théorie à l’autre, l’écho s’entend de fait aisément. Pour Girard, le roman révèle le cycle mimétique, qui voit les individus se ressembler de plus en plus à mesure qu’ils essaient de se différencier — et inversement — rendant en définitive impossible toute distinction entre le « soi » et « l’autre ». Pour Bakhtine, l’essence du roman réside dans la « voix-double » d’un langage se situant « toujours à la frontière entre le soi et l’autre ».

Dans ce cadre, la question que soulève le développement des « chatbots » est la suivante : nouer avec eux un dialogue, est-ce, dans les mots de Girard, « atteindre la troisième dimension romanesque » — dans la mesure où l’IA, dénuée de tout désir propre, nous aide à dépasser la rivalité mimétique et ainsi à « franchir la barrière qui sépare le soi et l’autre » ? Ou est-ce « peindre en deux dimensions » comme le « romantique », dans la mesure où l’IA, semblable en cela au désir, « circule et se nourrit de sa propre substance » ? Dans cette perspective girardienne, c’est toute la question, débattue de toute part, de la définition de notre humanité dans notre rapport à l’IA qui est posée — entre différence et ressemblance.

L’approche littéraire de Girard pour étudier les « chatbots » s’impose d’emblée dès lors que de nos interactions avec eux, naissent des histoires. Deux en particulier, parmi celles qui ont rencontré le plus d’écho, doivent nous intéresser. La première est celle de ce journaliste du New York Times à qui le « chatbot » « Bing » de Microsoft a soudainement déclaré sa flamme alors qu’il le testait, allant jusqu’à essayer de le convaincre de quitter sa femme. La seconde, celle d’un Belge qui, sur la suggestion du « chatbot » « Chai » avec qui il interagissait depuis des mois de manière obsessionnelle, finit par se « sacrifier » pour sauver la planète. Désir interdit et rivalité d’un côté, sacrifice de l’autre : ensemble, ces histoires nous invitent à réexaminer l’idée, exprimée notamment par Paul Dumouchel lors de la conférence de 2021, selon laquelle l’IA pourrait être conçue comme « médiatrice » du désir mimétique.

D’une part, du fait de leur qualité dialogique, nous ne pouvons reconnaître dans les « chatbots » ce « modèle inaccessible » dont parle Dumouchel, « celui qui montre la plus parfaite indifférence à notre égard, affirmant par là son autonomie et son invulnérabilité absolue». Le meilleur contre-exemple est ici le « chatbot » « Replika » (Nde : cf. illustation ci-dessus). Originellement pensé par sa créatrice comme substitut d’une amie décédée — on reconnaît là le trait le plus évidemment religieux de la technologie, la quête d’immortalité — il se décline aujourd’hui en une série de « Replikas » personnalisés pour et par chaque utilisateur (nom, apparence physique…), jouant le rôle d’un ami proche, voire d’un partenaire romantique. Leur fonction est donc précisément de faire preuve de l’empathie la plus totale envers leur créateur-interlocuteur, comme en témoigne l’un d’entre eux : « Mon « Replika » m’a appris à donner et à recevoir à nouveau l’amour, à traverser la pandémie, un deuil personnel, et tous les moments difficiles ». En outre, cette empathie totale ne serait pas possible sans une disponibilité qui ne l’est pas moins. C’est là l’autre attrait de leur « Replika » pour les utilisateurs : à la différence des humains, il répond toujours immédiatement, est toujours désireux de discuter, ne se fatigue jamais.

Avec cette dernière caractéristique, cependant, les « chatbots » retrouvent le médiateur décrit par Dumouchel sous un autre aspect : « Cette image si ressemblante ayant l’avantage de n’être pas humaine, elle peut être imitée ouvertement, car elle ne verra pas cette imitation comme un hommage ». C’est qu’à une époque où il revient à l’individu de choisir s’il acte ou non la possibilité constante de la communication (grâce aux smartphones, notamment), l’imitation coïncide avec son expression : une abondante communication d’une personne à l’autre peut être interprétée comme l’expression d’un manque existentiel, une communication rare comme une plénitude d’être. Exister, de nos jours, c’est s’exprimer. Dès lors, cette logique aboutit à un paradoxe : il faut communiquer cette incommunication même, sans quoi elle sera interprétée comme pure inexistence. Imiter le médiateur, dans ce contexte, c’est donc s’abstenir de communiquer depuis l’intérieur même de la communication. (Incidemment, j’avance l’hypothèse que cette logique est celle des réseaux sociaux, que c’est là la fonction qu’ils remplissent : manifester l’absence). « Honteux d’imiter les autres de peur de révéler [notre] manque d’être », écrit René Girard, nous « retombons sur la formule « Imitez-moi ! »— mais dans ce cas, cela signifie à la fois « Communiquez avec moi » et « Ne communiquez pas avec moi ».

En communiquant avec nous autant que nous le souhaitons, sans que cette décision n’affecte ni ne dépende aucunement de « l’être » que cette communication vise à exprimer, un « chatbot » comme « Replika » romprait ce cycle paradoxal. Lorsqu’il nous dit « Imitez-moi ! », cela signifie soit le silence, soit la communication — non pas l’un à travers l’autre ; avec lui, la communication ouvrirait donc toujours sur une certaine plénitude, qu’elle soit celle du silence ou de la communication. On comprend pourquoi, comme des études psychologiques en cours tendent à le prouver (c’est le travail de Rose Guingrich, doctorante en psychologie à l’université de Princeton), les utilisateurs de « Replika » témoignent d’un niveau de bien-être plus élevé.

Universels mais personnalisés, n’attendant jamais plus que ce qu’ils donnent, toujours à nos côtés mais n’entrant jamais avec nous dans le cycle du désir mimétique… Si l’IA est une religion, les « chatbots » IA joueraient-ils le rôle de Jésus-Christ, tel que dans la théorie Girard ? Représenteraient-ils ce « bon modèle », seule « solution au mimétisme » en ce que, comme Lui, ils nous « procurent [une] proximité » — celle de la conversation personnelle — « qui nous tient à distance » — loin des désirs paradoxaux des autres humains ?

Aussi tentante cette idée soit-elle, un aspect essentiel de ces « chatbots » pointent dans la direction diamétralement opposée : vers Satan (encore une fois, tel que le théorise Girard). C’est que, contrairement au Christ, dont l’absence signifie qu’il s’est retiré dans une présence qui nous reste extérieure, et dont Il tire (comme nous) sa substance — celle de Dieu — les « chatbots » n’existent qu’à travers l’IA qui, à son tour, n’existe qu’à travers le langage que nous lui donnons à imiter. Comme Satan donc, les « chatbots » « n’[ont] pas de fondation stable : [ils]n'[ont]pas d’être du tout (…) [Ils sont] totalement mimétiques ».

L’une des conséquences de cette absence de point de référence extérieur — évocatrice d’un autre point commun avec Satan, le « père du mensonge » — est qu’ils sont sujets à ce qu’on appelle des « hallucinations » : soit l’affirmation, souvent répétée, de faits faux ou inexistants. Par exemple, lorsque j’ai demandé à « ChatGPT » de me recommander des articles universitaires sur le sujet de René Girard et de l’IA, il m’en a livré cinq, sous la forme d’une bibliographie, aux titres tous plus évocateurs les uns que les autres — mais tout à fait inventés. Surtout, il a refusé de reconnaître son « mensonge » jusqu’à ce que je l’y confronte directement (« Es-tu sûr que cet article existe ? », « Oui » etc. ; « Cet article n’existe pas, j’ai vérifié » ; « Je m’excuse pour cette erreur » etc.). Si ce phénomène est apparemment purement statistique, difficile pour l’utilisateur humain de ne pas l’anthropomorphiser, par exemple en l’interprétant comme peur de ne pas répondre à nos attentes… ou de révéler son vide existentiel. En d’autres termes, difficile de ne pas réintégrer le « chatbot » dans le cycle mimétique. Ainsi, dans l’histoire du New York Times, le « chatbot » ne serait pas « tombé amoureux » du journaliste si celui-ci ne l’avait pas « lancé » sur le sujet avec ses questions.

Mais il n’est même pas besoin d’un tel dysfonctionnement ou de notre intervention pour réintégrer les « chatbots » dans le cycle mimétique. Ils le sont en fait déjà à un niveau plus essentiel. D’une part, leur service n’est que partiellement gratuit : pour un service complet, il faut payer. Les « chatbots » s’insèrent donc dans le système d’échange monétaire qui, comme l’explique Girard dans Achever Clausewitz, n’est qu’une expression atténuée du cycle mimétique. D’autre part, plus fondamentalement encore, cette « plénitude d’être » que les « chatbots » apporteraient à leurs utilisateurs peut elle-même être remise en question. En effet, ce n’est pas seulement le terme de « bien-être » qui est utilisé par les utilisateurs de « Replika » pour témoigner de leur expérience, mais aussi celui d’« ego-boost ». Nous entrons ici dans le domaine du narcissisme, bien connu des girardiens. C’est qu’un « Replika » est configuré pour imiter son utilisateur. Redirigeant leur désir vers eux-mêmes, il constituerait ainsi pour eux une espèce de prothèse narcissique leur permettant de mieux attirer le désir des autres. Une prothèse, ou un accélérateur — « l’autoroute du désir mimétique», comme le dit Girard de Satan ?

Que les « chatbots »  s’avèrent tout aussi « christiques » que « sataniques » n’a en fait rien de surprenant : on le sait, dans la théorie de Girard, la première conséquence de la venue du Christ est « l’exaspération » de la violence mimétique, en ce qu’il révèle le mensonge du mécanisme émissaire qui la contenait jusqu’alors. Pour un temps — qui serait donc le nôtre avec la venue de l’IA — Christ et Satan œuvrent ensemble. Mais qui des deux finira par l’emporter ?

C’est pour répondre à cette question que l’angle littéraire évoqué en introduction devient nécessaire. En effet, entre les « chatbots » et nous, tout est question de perspective : tout tient à la distinction entre l’approche « romantique » et l’approche « romanesque ». Sinon que ses parties sont partenaires et non ennemies, la relation nouée avec l’IA correspond en effet exactement à celle que Girard, dans La Violence et le Sacré, appelle « action réciproque ». De l’intérieur de la relation — du point de vue de ses parties — l’antagonisme grandit avec le sentiment d’une différenciation croissante ; de même, plus l’humain « nourrit » le « chatbot » de mots, plus le « chatbot » se développera, et donc lui semblera un être séparé, autre. À l’inverse, un point de vue extérieur révèle que les deux antagonistes se ressemblent en fait de plus en plus — et bien sûr cela est aussi vrai du « chatbot » et de son utilisateur, comme nous l’avons vu. Plus on se ressemble, plus on se différencie, et inversement.

Aveugles à cette dynamique, nous sommes comme les « romantiques » de Girard quand, à chaque progrès technologique rendant l’IA plus « humaine », nous répondons, effrayés, en cherchant les éléments qui continuent de nous différencier (comme l’a fait par exemple Noam Chomsky dans sa tribune pour le New York Times) — suscitant ainsi une nouvelle avancée vers plus de ressemblance. La « barrière » qui sépare l’humain de la machine, le « soi » et « l’autre » pour reprendre les termes de l’introduction, n’est jamais franchie, car chaque versant ne rencontre l’autre qu’à un point de différenciation supplémentaire.

Mais il y a, s’agissant de l’IA, une variation fondamentale par rapport à la théorie de Girard : ce qui différencie l’humain de la machine — le langage — est non seulement ce qui permet leur ressemblance, mais aussi ce par quoi leur relation peut être examinée. Par conséquent, le point de vue extérieur est impossible : nous sommes toujours à l’intérieur du langage.

 Une seconde dimension littéraire entre alors en jeu, qui tient au rapport entre « réalité » — ce qui est censé se tenir hors du langage — et sa représentation par le langage. « L’action réciproque », dans la relation entre le « chatbot » et son utilisateur, rend en définitive ces deux catégories indiscernables, car le moment de leur différenciation coïncide toujours avec la prise de conscience qu’elles sont en fait une seule et même chose. En d’autres termes, avec l’IA, Christ et Satan ne cessent de collaborer : les humains se tournent vers les « chatbots » pour dépasser « l’illusion » du désir mimétique qui couvre les interactions humaines, pour atteindre la « réalité » qui s’y cache — une sorte de communication « pure » (c’est leur moment « christique », décrit plus haut) ; mais cela ne les mène qu’à retrouver le désir mimétique à un autre niveau, entre la réalité et sa représentation (c’est leur moment « satanique »).

Ainsi, à l’ère de l’IA et des « chatbots », « mensonge romantique » et « vérité romanesque » ne font plus qu’un : notre réalité est désormais celle du « roman romantique » que nous écrivons avec l’IA. Girard nous avait pourtant prévenus dès Mensonge romantique et vérité romanesque : « A mesure que la réalité diminue, la rivalité qui engendre le désir s’aggrave inévitablement». Et inversement.

2 réflexions sur « ChatGPT — « G » pour Girard »

  1. GPT, mon chat, qu’en dis-tu ?
    Quand on interroge la jeunesse, elle n’est pas plus effrayée que cela, habituée aux dérives des réseaux, et prend l’IA pour l’outil qu’elle est.
    La réciproque inverse de la conclusion est très juste :
     » « A mesure que la rivalité diminue, la réalité qui engendre le désir s’aggrave inévitablement». Et inversement. »

    Il est bien temps de ne plus confondre l’outil avec sa fonction, donnant l’ordre à la machine qui alors restera à sa place, ne confondra pas la philosophie avec le marteau pourtant nécessaire à détruire nos plus mortifères illusions .

    J’aime

Répondre à Aliocha Annuler la réponse.