Intelligence artificielle et néo-parler orwellien
Plus rien ne semble résister à l’intelligence artificielle et aux algorithmes qui en sont le visage, ou plutôt le cœur, un cœur en vérité bien mal connu. Semaine après semaine, nous apprenons que de nouvelles applications tirent profit de la masse sans cesse grandissante de données collectées, à notre insu ou non. En cela, la lecture de l’article «Twitter, le thermomètre de l’humanité ne nous apprend rien de fondamentalement nouveau. Mais, en abordant le développement de ce phénomène dans un domaine particulier, celui de l’épidémiologie, il nous permet – bien que de façon incidente – de saisir les enjeux cachés de cette révolution en cours.
Les contours en sont connus. Nos recherches, notre navigation quotidienne, nos likes, nos déplacements géolocalisés – en vérité tout déplacement à la surface de la toile intercepté par les cookies fouineurs ou les objets connectés –, et j’en passe, dessinent en continu la cartographie ou le portrait de notre personnalité numérique. Google, Facebook et consorts en sauraient désormais davantage sur nous que nos proches. Nullement à la traîne, les Etats ferraillent pour avoir ou conserver un accès privilégié à nos données. Les scientifiques eux-mêmes n’y résistent guère et se tournent de plus en plus vers le Big Data. A la data-économie et à la data-surveillance s’ajoute ainsi la data-science, le tout mâtiné de prédictions à tout va.
Convenons avec les data-scientifiques que cette masse de données est là et bien là, et qu’il serait peu raisonnable de faire comme si elle n’existait pas. Convenons également que l’idée même de travailler avec toujours plus de données est en soi attirante et qu’il est apparemment difficile de résister à la «séduction» des données, surtout lorsqu’on se sait ou se croit pourvu des instruments idoines pour les analyser et les faire parler. Enfin qu’il y a, quand il s’agit de veiller au respect de la vie privée, des lignes rouges à ne pas franchir – le scandale Cambridge Analytica aura au moins eu cette vertu là.
Nous voilà presque rassurés. Je dis «presque», car à la fin de l’entretien, Marcel Salathé, directeur du laboratoire d’épidémiologie numérique de l’EPFL, ne peut s’empêcher, même lorsque se pose la question de l’atteinte à la liberté, de montrer son intérêt pour l’algorithme de Facebook; algorithme capable de détecter les tendances suicidaires des utilisateurs du réseau social. Aussi à la question du journaliste «peut-on s’immiscer dans la vie d’un dépressif ou d’un suicidaire?» ose-t-il sans réelle surprise un oui franc, rappelant qu’en cas de troubles psychiques de ce genre il faut agir au plus vite. Et d’affirmer dans la foulée: «Face aux nouveaux outils du monde numérique, il y a deux attitudes: soit, on se projette dans un monde à la George Orwell et son ‘Big Brother’, où l’individu est constamment surveillé, soit on imagine un monde où la numérisation permet d’améliorer le sort de l’humanité.»
A l’heure où une nouvelle traduction française de 1984 sort en librairie, il importe de rappeler qu’imaginer ou non se projeter «dans un monde à la George Orwell» c’est en vérité déjà y être. Comme le remarque si justement Pierre Ducrozet dans Le Monde des livres du 8 juin, «1984 est toujours en avance sur nous». 1984 l’est en particulier quand il nous rappelle que c’est malgré nous que la «novlangue» ou le «néo-parler» fait d’un mot son contraire, d’une alternative une absence d’alternative.
Car tel est le véritable enjeu de la révolution data-numérique en cours: donner à croire qu’il nous faut l’adopter en connaissance de cause mais sans se poser de questions en retour. Qui, en effet, face à l’imminence d’une dystopie potentielle ou possible, refuserait un monde où la numérisation permettrait non de surveiller mais d’améliorer le sort de l’humanité? A priori personne.
Mais alors quelles sont, à l’heure d’esquisser une feuille de route data-numérique, les questions qui doivent être posées? Suivant Bernard Stiegler, commentant pour l’occasion le rapport Villani sur l’intelligence artificielle, il me paraît essentiel de commencer par questionner l’expression même d’«intelligence artificielle». Pour remarquer qu’il y là non tant une intelligence à l’œuvre qu’une collecte de données à très grande échelle. Et que cette collecte mène souvent à de la «bêtise artificielle», c’est-à-dire à du désordre.
On peut vouloir, comme l’épidémiologue numérique, «entraîner» l’algorithme, on peut y consacrer l’essentiel ou presque de son temps, on n’en demeure pas moins confiné à l’intérieur d’une logique qui n’est ni proprement humaine ni proprement intelligente. Et on se prolétarise, c’est-à-dire qu’on ne sait finalement plus comment tout ça fonctionne.
Il est temps de se montrer critique et d’engager un débat. Nous n’avons plus le choix. Nous devons, dès à présent, critiquer notre utilisation de l’IA. Plus encore nous devons, à compter de ce jour, rester sur le qui-vive. Il en va de la liberté et de l’intelligence humaines.
Géographe, Genève.