Chroniques

Bavardages computationnels

À livre ouvert

«Abstraction: Tout le champ du numérique est basé sur des opérations d’abstraction, c’est-à-dire d’extraction […]. Les données (data) ne sont jamais ‘données’ (par qui?) mais toujours ‘extraites’ (extracta) par et pour quelqu’un·e ou quelque chose.»

«Acceptabilité: Lorsque des innovations techniques sont présentées en termes d’‘acceptabilité’, leur promotion vise des effets d’éblouissements dont la fonction est généralement d’imposer à des populations […] des pratiques et des valeurs dont les objections et les capacités de réflexion sont niées a priori.»

Le livre Angles morts du numérique ubiquitaire1>Yves Citton, Marie Lechner et Anthony Masure (dir.), Angles morts du numérique ubiquitaire: glossaire critique et amoureux, Les Presses du réel, 2023. paraît à point nommé. Se voulant un glossaire à la fois critique et féru du numérique, autrement dit reconnaissant dans celui-ci un pharmakon «suscitant une abondance de nouveaux espoirs et de nouvelles peurs» – pharmakon dont il faudrait se garder et pourtant garder auprès de soi –, ce livre nous permet de faire un pas de côté et de penser le numérique dans ses angles morts. Il était temps.

Ses deux premières entrées (citées ci-dessus) donnent le ton. Quand il est question de numérique, rien n’est donné, surtout pas les data. Tout en effet est extrait, sorti de son contexte, arraché, bref, sans port d’attache. Quand il est question de numérique, le moment clef se situe souvent dans l’éblouissement d’une première rencontre avec le produit. Une fois celui-ci accepté, ses usages ne sont quasiment plus remis en question.

L’irruption du robot conversationnel ChatGPT est à cet égard absolument révélatrice. Comment qualifier les trois mois écoulés sinon de pure folie médiatique où tout semble avoir été dit sur les capacités de cet Objet numérique non identifié (ONNI). Non identifié, car sait-on vraiment ce qu’est une intelligence artificielle au moment où nous commençons à l’utiliser, où nous nous mettons à en parler et à devenir les détracteurs ou détractrices, zélateurs ou zélatrices de celle-ci?

Fascinant de voir combien en à peine trois mois nous sommes devenu·es d’invétéré·es bavard·es. Fascinant de remarquer que nous n’hésitons plus à donner notre avis de néophyte sur les capacités réelles ou supposées de l’IA et de ce qui en constitue ici l’ossature en même temps que la boîte noire (le dit «deep learning»).

En vérité, nous voici rendu·es aussi bavard·es que ces robots conversationnels capables de débiter un texte sur commande et en cela quelque chose de presque unique vient de prendre place. Nous n’avons pas à être impressionné·es par les réponses du robot mais bien par la vitesse à laquelle nous nous sommes mis·es à lui ressembler. Pour rappel, si «le fonctionnement de la pensée humaine est impossible à reproduire»2>Dominique Cardon, Culture numérique, Les Presses de SciencesPo, 2019, p. 389. par l’intelligence artificielle, l’inverse n’est pas vrai.

Oublions donc les performances (pour l’heure en demi-teinte) de ChatGPT et celles de ses futurs concurrents (Bard et consorts) et intéressons-nous à son impact dans l’enseignement. Une fois la sidération initiale passée, celui-ci a été le terreau de débats quasi sans fin mais a-t-on noté la naïveté à peine feinte d’OpenAI lorsque, le 21 janvier, la société éditrice affirmait avoir subitement compris que les élèves et étudiant·es pouvaient se servir de son logiciel dans un cadre scolaire?

A-t-on pareillement noté qu’il lui faudrait à peine deux semaines pour proposer à ses désormais clients – puisqu’une version payante était en passe d’être rendue disponible – un «classificateur de textes» peu ou prou capable d’identifier si un texte était produit par une IA?

Il n’y a donc pas lieu d’être bluffé·e par les capacités d’une intelligence artificielle à produire du texte, de l’image ou bientôt de la vidéo. Ce qui importe en revanche, c’est de mesurer la quantité de choses qu’ici ChatGPT tire et extrait de nous. C’est reconnaître qu’avant même d’être un outil extrêmement puissant, il nous transforme en «agent marketing, VRP de OpenAI», comme l’a parfaitement compris le sociologue Dominique Boullier3>Dominique Boullier, «Science Po a eu raison d’interdire ChatGPT», AOC, 7 février 2023..

La preuve que nous venons d’assister à un véritable passage en force n’est plus à faire. Aussi le temps n’est plus aux bavardages, computationnels ou non. Le temps est venu de décider si nous acceptons ou non de vivre en «algocratie».

Notes[+]

* Géographe, écrivain et enseignant.

Opinions Chroniques Alexandre Chollier A livre ouvert

Chronique liée

À livre ouvert

lundi 8 janvier 2018

Connexion