Au tournant du XXe siècle, Freud a fait le pari de miser sur la parole de ses premières patientes. D’un ramonage initial, il « remarqua bientôt […] qu’un tel “nettoyage” de l’âme faisait beaucoup plus qu’éloigner momentanément la confusion mentale1 ». La constitution d’une théorisation de la psychanalyse, d’abord nommée talking cure, était alors en marche. Lacan choisira le néologisme de parlêtre pour exprimer le principe constituant qui rattache ainsi l’humain à une jouissance connexe du signifiant.
Dès les années cinquante et les débuts de la cybernétique, Lacan s’est intéressé à ce qu’on nommait alors la machine à penser, prémisse de l’informatique et ancêtre lointain des processeurs électroniques qui nous entourent aujourd’hui. Il précisa que « Les machines les plus compliquées ne sont faites qu’avec des paroles.2 », rappelant par là même un certain lien de parenté. Il en demeure qu’« il est impossible qu’une machine soit corps3 ».
Si elles n’ont pas de corps, les machines se sont mises à parler, provoquant tout à la fois admiration, surprise, mais aussi trouble et questionnements. Pendant longtemps, une des représentations majeures de l’IA a été la voix inquiétante de Hal dans l’odyssée spatiale kubrickienne. On assistait aux tribulations paranoïdes d’une machine en proie aux doutes des humains à son égard. Aujourd’hui, il n’y a guère plus de doutes concernant les différents modèles d’IA qui sont adoptés désormais par un large public. Sollicités comme assistants domestiques, collègues de travail ou encore écrivains publics, ils servent aussi à l’occasion de conseillers matrimoniaux ou de confidents pour certains. Tout dépend de la demande qui leur est adressée et de la place faite aux signifiants émis en retour. La science a relevé cette impasse en dégageant l’effet ELIZA comme la prédisposition humaine à établir un attachement lié à l’usage des signifiants, même lorsque ceux-ci sont émis par une machine. Cette tendance anthropomorphique trouve d’ailleurs son illustration la plus parlante dans la tendance actuelle à voir des sujets aspirer au mariage avec une IA. Lacan avait déjà attiré notre attention sur le pouvoir et les limites de la science-fiction d’alors, nous expliquant qu’au fond « il n’y a que les corps parlants qui peuvent se faire une idée du monde4 ».
Aujourd’hui, la démonstration la plus éclairante, pour illustrer qu’une communication émanant d’une IA n’a pas les ressorts subjectifs d’une énonciation incarnée, est la mise en situation d’échanges entre différents robots conversationnels5. Dans ces vidéos, on voit qu’il faut généralement encore quelques minutes aux intéressés pour se rendre compte de qui est qui. Mais une fois que les présentations sont faites en bonne et due forme, les entités numériques se proposent de passer alors en mode Gibberlink6, s’affranchissant des lourdeurs et des lenteurs du langage humain pour ne conserver que des sonorités digitales et les fonctionnalités du binaire. Un langage codé, accéléré et inaccessible à la reproduction humaine qui démontre ainsi la spécificité de la machine. Aussi inaccessible que peut l’être le malentendu propre au dialogue humain pour un chatbot.
Yann Le Fur
1. Freud S., Cinq leçons sur la psychanalyse, Paris, Payot, 1982, p. 11.
2. Lacan J., Le Séminaire, livre II, Le Moi dans la théorie de Freud et dans la technique de la psychanalyse, texte établi par J.-A. Miller, Paris, Seuil, 1978.p. 63.
3. Lacan J., Le Séminaire, livre XV, L’Acte psychanalytique, texte établi par J.-A. Miller, Paris, Seuil & Champ Freudien, 2024, p. 102.
4. Lacan J., « Interview de Lacan sur la science-fiction », La Cause du désir, n°84, p. 9.
5. « Gibberlink mode, real or fake ? », Science and Technology Academy, disponible en ligne.
6. Entrée Gibberlink, Wikipédia, disponible en ligne.

