L’éthique de la non-intention

Un panopticon à échelle mondiale est constitué [*]. Il s’appelle Facebook et il se veut « site communautaire ». Il compte plus de deux milliards et demi de membres, soit un tiers de l’humanité. Les discours qui s’y tiennent sont surveillés par une armée d’employés à l’aide d’algorithmes sophistiqués qui prétendent tout voir. 

Interrogé en 2018 [1] sur la tolérance de la plateforme aux messages haineux en tout genre, son inventeur et PDG, Mark Zuckerberg, explique que malgré le fait qu’il est juif, il ne pense pas devoir supprimer du site des messages négationnistes concernant la Shoah. Selon lui, les auteurs de ces messages se trompent, mais ils ne le font pas intentionnellement. Par conséquent, pour ne pas discriminer les opinions, et puisque nul n’est à l’abri d’une erreur, il n’y a pas lieu de censurer ces messages. Comparée à l’éthique des conséquences [2], principe hégélien, qui prend l’Autre en considération, l’éthique des bonnes intentions, principe kantien et narcissique, est aveugle. Notamment quand, faisant fi de l’éventualité d’une mauvaise intention, elle présume l’absence totale d’intention. À méconnaitre l’inconscient, il n’y a pas de vérité qu’un lapsus pourrait révéler. Il n’y a que des erreurs, erreurs de bonne foi, les plus impardonnables, disait Lacan [3].

La référence à l’utilitarisme benthamien ne s’arrête pas au panopticon. « Nous avons une responsabilité, dit Zuckerberg, d’amplifier le bien et d’atténuer le mal » [4]. On y entend l’écho de l’énoncé unique et condensé de l’utilitarisme, « le plus grand bonheur au plus grand nombre » [5]. En effet, le sujet de la morale utilitariste n’aspire à rien d’autre qu’à maximiser le bien et minimiser le mal. Il n’a pas de mauvaises intentions. Il n’a aucune rancœur ou volonté de vengeance, mais il veut rentabiliser au maximum la jouissance de tous. Quand cette jouissance conduit au crime, la seule intention du sujet utilitariste est de transformer le châtiment en une entreprise rémunératrice au profit de la société. Bentham va jusqu’à suggérer que « Si pendre un homme en effigie produisait la même impression salutaire de terreur sur l’esprit populaire, ce serait folie ou cruauté que de jamais pendre un homme en personne » [6]. On se contenterait d’une pendaison fake. Belle intention, mais l’Histoire nous a montré que les bonnes intentions tapissent le chemin vers l’horreur.

Le 6 janvier 2021, Guy Rosen, responsable de la sécurité de Facebook, déclare que son réseau a retiré dans l’urgence la vidéo de Donald Trump qui encourageait l’invasion du Capitole [7]. Il y avait urgence, mais la suppression de cette vidéo n’a pas empêché les cinq morts occasionnés par cet évènement. Le regard surveillant du réseaux social, à la fois omnivoyant et aveugle, n’a pas été aussi rapide en 2016-2017, lors d’un nettoyage ethnique en Birmanie causant des milliers de morts et la migration de plus de 700 000 personnes au Bangladesh pour y trouver refuge. Pendant les cinq années qui ont précédé ces événements violents, 700 soldats de l’armée birmane, dont une partie a été formée en Russie, ont participé à une opération secrète qui alimentait la haine entre la majorité bouddhiste et la minorité musulmane. Dans l’après-coup, Facebook a reconnu une certaine lenteur dans le traitement de cet usage nuisible de sa plateforme [8]. Notons cette particularité de la croyance à la bonne intention : elle est toujours un temps en retard par rapport à l’acte.

Le système de sécurité de Facebook n’a pas été aussi lent quand, il y a deux ans, lors des préparations des 49e journées de l’ECF, il a repéré un bout de corps dénudé sur une image qui accompagnait un texte du blog des journées de l’ECF. L’image a été retirée illico presto. Une nudité est une nudité, peu importe qu’il s’agisse d’une œuvre d’art. G. Rosen confirme que les images de nudité et la propagande terroriste sont facilement détectées par l’intelligence artificielle et peuvent ainsi être retirées rapidement du site, alors que les discours de haine sont plus difficiles à déceler, car les algorithmes ne repèrent pas les subtilités de langage de la hate speech [9]. En effet, le signifiant comme représentant un sujet pour un autre signifiant est absent de l’algorithme. Par contre, on y trouve les caractéristiques du trait unaire. À la différence du signifiant, le trait unaire est identique à lui-même [10]. Comme tel, il permet une numérotation et une addition, mais il ne produit pas des effets de sens et de sujet. Qu’une information soit vraie ou fausse, c’est une information, et quand on additionne la vraie à la fausse, on obtient un total de deux informations, sans qualités. Le discours sur la non-intention redouble ce langage cybernétique.

Cette uniformisation du discours par le trait unaire est la condition d’une technique de l’évaluation qui prend le pas sur le jugement par la parole. C’est dans cette uniformisation que se loge le vrai fake. En se passant de la diversité des effets sujets, le langage cybernétique que l’éthique de la non-intention emprunte renvoie définitivement dos à dos le symbolique et le réel, rendant impossible l’articulation entre le signifiant et la jouissance. Dans la continuité liquide qui s’instaure, l’acte de trancher et retrancher la jouissance est rendu impossible. Celle-ci est alors livrée à elle-même et se déchaine sans entrave.

La défaillance des algorithmes des réseaux ne se limite pas au manque de repérage des fausses informations alimentant la haine et la violence. Ces algorithmes participent également à l’amplification de ces discours de haine par leur fonction de recommandation. Si vous achetez un roman policier sur Amazon, vous recevrez, de façon automatique, dans les jours qui suivent des recommandations d’achats pour d’autres romans du même genre. La chose est plus troublante quand, suite à un intérêt pour une page d’un groupe de soutien à Donald Trump, il vous est mécaniquement recommandé, sans qu’aucune mauvaise intention ne participe à cette recommandation, de lire des théories de conspiration concernant des réseaux pédophiles, propagées par la mouvance QAnon. Facebook a supprimé l’ensemble des pages de QAnon publiées sur son site en octobre 2020. Là aussi, cette intervention est jugée bien tardive à la vue des actes violents et criminels auxquels ces pages toxiques ont déjà pu inciter [11].

Qu’on le veuille ou pas, Facebook, Twitter et les autres réseaux sociaux véhiculent et régulent le discours contemporain. Ce Golem, dont les effets dépassent ceux qui l’ont créé, est un symptôme de notre temps. Si l’assaut sur le Capitole a révélé la face d’ombre de ce que cet outil soutient, on ne peut nier le rôle d’appui à la liberté d’expression que ces réseaux jouent également. Se gendarmer contre les réseaux et traiter la jouissance qu’ils déchainent uniquement sur l’axe censurer ou ne pas censurer est peu efficace et peut être une façon de « détourner le regard de ce qui est en jeu » [12]. Il ne s’agit donc pas, pour nous, de bouder les réseaux, mais de lire et interpréter ce symptôme d’une civilisation qui se laisse diriger par le marteau sans intention de la technique.

Comme nous avons pu le constater, le système de contrôle de Facebook est souvent un temps en retard par rapport à l’acte. Ce retard répétitif restera tant que les réseaux sociaux ne remplaceront pas l’éthique de l’intention par celle des conséquences. La cure analytique est ici une inspiration majeure. Le névrosé, serf de son fantasme, est pris dans le fake des bonnes intentions de son image narcissique. Par conséquent, il est toujours un temps en retard par rapport à son mode de jouissance. Celui-ci le conduit encore et encore vers les mêmes suites fâcheuses. Rien ne peut arrêter cette répétition si ce n’est l’obtention d’un aperçu sur la logique de ce fantasme. Que les conséquences se constatent dans l’après coup n’empêche pas le sujet d’anticiper sur les suites de ses actes. La cure analytique peut être conçue comme un parcours allant de l’éthique de l’intention vers celle des conséquences. 

[*] Texte prononcé lors de la journée « Question d’École. Le Fake », le 23 janvier 2021, en visioconférence.

[1] Swisher K., « Zuckerberg : The Recode Interview », Recode, 8 octobre 2018, disponible sur internet.

[2] Cf. Miller J.-A., « L’acte entre intention et conséquence », Politique lacanienne 1997-1998, Paris, EURL Huysmans, 2001. On trouve une version raccourcie de ce texte dans La Cause freudienne, n°42, mai 1999, p. 7-16.

[3] Cf. Lacan J., « La science et la vérité », Écrits, Paris, Seuil, 1966, p. 859. 

[4] « we have a clear responsibility to make sure that the good is amplified and to do everything we can to mitigate the bad » (Swisher K., « Zuckerberg : The Recode Interview », op. cit.)

[5] Bentham J., « Inquiry into the Original of on Ideas of Beauty and Virtue », 1726, p. 177, cité par J.-A. Miller, in « La machine panoptique de Jeremy Bentham », Ornicar ?, n°3, mai 1975, p. 25.

[6] Bentham J., Principles of Penal Law, p. 415, cité par J.-A. Miller, in « La machine panoptique de Jeremy Bentham », op. cit., p. 14.

[7] « This is an emergency situation and we are taking appropriate emergency measures, including removing President Trump’s video. We removed it because on balance we believe it contributes to rather than diminishes the risk of ongoing violence. » (Rosen G., Post on Twitter, 6 janvier 2021, disponible sur internet).

[8] Cf. Mozur P., « A Genocide Incited on Facebook, With Posts From Myanmar’s Military », The New York Times, 15 octobre 2018, disponible sur internet.

[9] Cf. Rosen G., « The Facebook Dilemma », entretien, Frontline PBS, 4 décembre 2018, disponible sur YouTube.

[10] Cf. Lacan J., « De la structure comme immixtion d’une altérité préalable à un sujet quelconque », La Cause du désir, n°94, novembre 2016, p. 7-16, disponible sur internet.

[11] Cf. Beckett L., « QAnon : a Timeline of Violence Linked to the Conspiracy Theory », The Guardian, 16 octobre 2020, disponible sur internet.

[12] Miller J.-A., « Les causes obscures du racisme », Mental, n°38, novembre 2018, p. 144.