Skip to content

Le Courrier L'essentiel, autrement

Je m'abonne

b.a.-ba

A livre ouvert

En matière d’IA, le b.a.-ba n’est pas tant affaire de codage que de croyance. Ne pensez pas que je me moque ici de la foule des adeptes béats, des apologues malgré eux, des zélateurs forcenés ou des colporteurs de mauvaises – ou bonnes, c’est selon – nouvelles annonçant l’arrivée imminente du point de singularité. Non, j’ai ici en tête quiconque utilise le terme d’IA ou d’«intelligence artificielle» sans y penser, à la façon d’un perroquet. Moi y compris.

Il est difficile d’échapper à cette expression née officiellement durant l’été 1956 lors de la conférence de Dartmouth coorganisée par Marwin Minsky et John McCarthy. Il est sûr que «traitement automatique des données» aurait été, à l’heure de dénicher les fonds nécessaires à son financement, une expression bien moins efficace. Essayez aujourd’hui de parler autour de vous de «grands modèles de langage» ou encore de «machines informationnelles», et vous remarquerez que l’expression choisie manquera le plus souvent sa cible, qu’il faudra recourir à l’expression consacrée pour que les yeux s’allument et qu’on vous dise «ça y est, je vois ce que tu veux dire». Convenons-en, l’imaginaire anthropomorphique est redoutable d’efficacité.

Dans ce contexte bien particulier, la parution du dernier livre d’Anne Alombert, De la bêtise artificielle1>Anne Alombert, De la bêtise artificielle, Allia, 2025, fait l’effet d’une bouffée d’air frais. Voilà le genre de livres que j’attendais depuis un bon moment. En une petite centaine de pages, le culte de l’IA est mis à nu et notre idolâtrie mise à mal. Il était temps.

Le titre du livre, De la bêtise artificielle, ne laisse guère de place au doute et dès les premières lignes il nous faut reconnaître l’évidence: derrière le nom donné à une machine et derrière l’anthropomorphisation qu’il dénote, un but programmatique s’expose: faire accroire que «penser ou apprendre revient à calculer». Pensez-y, si les «calculs peuvent être formalisés logiquement sous forme d’algorithmes», si «ces algorithmes peuvent être exécutés par des machines numériques», alors ces machines peuvent se voir «attribuer l’intelligence, l’apprentissage ou la pensée» et s’apparenter «à des doubles des humains, capables d’imiter ou de simuler leurs aptitudes psychiques ou mentales à travers de puissantes capacités de calcul et de traitement de données». On peut même pousser les choses plus loin.

Il n’y a qu’à se retourner sur la dernière mise en garde de Geoffrey Hinton, récipiendaire du Nobel de physique 2024. Délivrée à Las Vegas devant un public choisi lors de la conférence Ai4 au mois d’août dernier, son message est simple: d’ici une à deux décennies l’IA devenue générale sera plus intelligente que nous et s’émancipera potentiellement de tout contrôle humain; nous faisant franchir par là le point de singularité. Puisque dans cet imaginaire technologique il n’y a aucun moyen d’empêcher l’IA de devenir supra-intelligente, il faut s’assurer qu’elle nourrisse à notre égard un «instinct maternel». Manière pour Hinton de rappeler l’essentiel: continuons de travailler à son développement. Ou comment un discours alarmiste se transforme quasi mécaniquement en apologie technosolutionniste.

Ne paniquons pas et demandons-nous pourquoi, dans la pratique, une «innovation débridée» et une «panique généralisée» ne se neutralisent nullement et pourquoi l’imaginaire anthropomorphique en ressort le plus souvent renforcé. Demandons-nous également sous quelles conditions des technologies peuvent être des solutions.
Dans la veine d’un Bernard Stiegler, Anne Alombert poursuit sa critique de l’IA en rappelant qu’en déléguant nos pratiques d’écriture et de lecture à des machines, en ne les exerçant plus, on désapprend à écrire et à lire, donc à penser. Et que si nous voulons continuer à penser, il nous faut imaginer et développer d’autres technologies algorithmiques que celles qui nous sont imposées par les sociétés gafamesques d’ici ou d’ailleurs.

Il va de soi que «la bêtise artificielle [autrement dit la BA] n’est pas une conséquence nécessaire des algorithmes». Mais l’algorithme est-il pour autant un pharmakon comme les autres? Question moins anodine qu’il n’y paraît à l’heure où les machines nous imitent bien moins que nous ne les imitons.
Pour ma part, désormais le b.a.-ba en matière d’IA consiste à la nommer BA. A l’avantage de faire sourire et surtout réfléchir, s’ajoute celui de ne plus la «calculer».

Notes[+]

Alexandre Chollier est géographe, écrivain et enseignant. Récente publication: November November. En route pour la Lune, la Terre en tête, Ed. La Baconnière, 2025.

Chronique liée