Contrechamp

Troquer la démocratie contre les app

L’exploitation des données figure un «changement de contrat social à bas bruit». Doctorant en philosophie politique et éthique, Adrien Tallent fait le constat que des systèmes technologiques supposés apolitiques ont un impact de plus en plus grand sur nos démocraties. D’où l’idée qu’«il serait nécessaire de politiser la question». Eclairage.
Troquer la démocratie contre les app 1
Adrien Tallent: «En fournissant nos données, nous transférons une partie de notre libre arbitre et la faculté d’agir sur nos opinions.»; Just chillin', Dennis Sylvester Hurd. FLICKR-CC0
Intelligence artificielle

Sélection à l’université, contenus mis en avant sur les réseaux sociaux, justice1>S. Abiteboul, C. Mathieu, «La justice prédictive et l’égalité devant la loi», TC, 26 avr. 2018.
et médecine2>P. Besse, «Médecine, police, justice: l’intelligence artificielle a de réelles limites», TC, 1er déc. 2021.prédictives, véhicules autonomes3>A. Touzain, «Des véhicules autonomes mais pas infaillibles», TC, 29 nov. 2016., surveillance des foules… Aujourd’hui les algorithmes sont massivement utilisés4> C. O’Neil, Algorithmes, la bombe à retardement, éd. Les Arènes, 2018.dans de nombreux pans de la vie politique, sociale et économique. Les termes d’«algorithme», de «donnée» ou d’«intelligence artificielle» (IA) sont souvent assimilés à des mots magiques. Certains voient dans ces «outils» des êtres infaillibles, parfaitement rationnels et dont l’aide pourrait se révéler précieuse afin de déléguer certaines tâches – voire certaines responsabilités.

Mais la collecte massive des données et l’utilisation généralisée d’algorithmes constituent aussi une menace pour la société, la démocratie et in fine le contrat social, qui est pourtant à la fondation de la conception moderne de l’Etat.5>L. Strauss, «Les trois vagues de la modernité», trad. (anglais): M. Nafi, Le Philosophoire 2005/2 (no 25),
pp. 167-180.
En échange d’un service (le plus souvent gratuit), les utilisateurs délèguent alors consciemment ou inconsciemment une partie de leur pouvoir de décision ainsi que la possibilité d’agir sur leurs choix et leurs opinions.

L’aboutissement du culte de la raison

Les systèmes d’IA sont construits de manière à pouvoir traiter d’immenses quantités de données. La finalité étant de faire les choix les plus avertis et objectifs possibles. Loin d’être une fatalité, ce déploiement à grande échelle répond à des choix politiques et à la mise en avant de ce que la chercheuse en sciences juridiques Antoinette Rouvroy nomme une «rationalité algorithmique »6>S. Abiteboul, C. Froidevaux, «Autour de l’informatique: les algorithmes et la disparition du sujet», TC, 22 janv. 2016..

Héritières de la révolution scientifique et philosophique du XVIIe siècle, nos sociétés occidentales se sont construites autour des notions de liberté et de progrès. Dans son Esquisse d’un tableau historique de l’esprit humain (1793)7>Condorcet, «Esquisse d’un tableau historique des progrès de l’esprit humain», Paris, 1822 (1795)., Condorcet proclamait ainsi l’harmonie entre l’émancipation de l’être humain et le développement technique.

Sur le plan politique, la théorie du contrat social se fonde sur les idées de liberté, de démocratie et de vie privée. Toutes les perspectives du contrat social cherchent à comprendre les raisons pour lesquelles des individus échangeraient une part de leur liberté contre un ordre politique. Le contrat social8> Rousseau, Du contrat social, Paris, 1886 (1762).présuppose donc l’existence d’agents rationnels qui se réunissent par intérêt. Dès lors, quoi de plus rationnel que la gestion de divers secteurs par l’intelligence artificielle?

Dans cette conception, l’être humain est vu comme faillible face à une IA infaillible car fondée sur des «données» considérées comme des objets mathématiques. L’avènement d’une «gouvernementalité algorithmique »9>A. Rouvroy, T. Berns, «Gouvernementalité algorithmique et perspectives d’émancipation», Réseaux 2013/1 (no 177), pp. 163-196.– les décisions se fondent désormais sur le traitement des données plutôt que sur la politique, le droit ou les normes sociales – rendrait enfin possible le règne de la raison. Ainsi, toute décision deviendrait irréfutable car elle serait appuyée sur des arguments statistiques. C’est oublier les nombreux biais qui existent dans la saisie des données et dans leur exploitation par des algorithmes.10> T. Poibeau, «Emploi, sécurité, justice: d’où viennent les ‘biais’ des IA et peut-on les éviter?», TC, 4 fév. 2021.

La logique du contrat social (notamment depuis la révolution industrielle puis le développement de l’Etat providence au XXe siècle) était une logique assurantielle. Ignorant le futur, les individus avaient intérêt à s’assurer collectivement contre le risque. Désormais, le développement de l’analyse prédictive rend caduque cette version du contrat. Les offres d’assurances peuvent être adaptées aux risques précis que chacun encourt.

Les géants du numérique connaissent nos préférences, nos opinions, nos envies et nous enferment dans ce que l’essayiste Eli Pariser nomme une «bulle de filtre »11> E. Pariser, The Filter Bubble: What The Internet Is Hiding From You, Penguin UK, 2011.. Le contenu en accord avec nos idées y est surreprésenté et les avis contradictoires y font défaut, augmentant alors la diffusion des fake news – à plus fort potentiel de réactions et donc de diffusion12>A. Guess, J. Nagler, J. Tucker «Less than you think: Prevalence and predictors of fake news dissemination on Facebook», Science Advances, Vol 5, Issue 1, 9 janvier 2019.. Nous partageons dès lors de moins en moins de vérités et d’expériences communes, pourtant nécessaires au fonctionnement de la démocratie.

En analysant nos données pour prédire notre comportement, le capitalisme devient un «capitalisme de surveillance »13>S. Zuboff, L’Age du capitalisme de surveillance, trad. (anglais): B. Formentelli et A.S. Homassel, éd. Zulma, 2020.pour reprendre les mots de l’universitaire Shoshana Zuboff. Pour ces entreprises, les individus ne sont plus des clients mais des produits pour les annonceurs. Le philosophe Bernard Stiegle14>B. Stiegler, Dans la disruption, comment ne pas devenir fou?, éd. Les Liens qui libèrent, 2016.
explique ainsi que les individus se sont transformés en «fournisseurs de data». Déjà individualisés, ils sont en outre désindividués: leurs données permettent de les déposséder de leur volonté. A titre d’exemple, le fait que nous sommes exposés à de publicité ciblée témoigne d’une anticipation de nos désirs. Nous ne savons plus réellement si nous avons désiré l’objet que nous avons acheté puisqu’il nous a été montré avant même que nous l’ayons désiré. Notre désir est automatisé.

Accoutumés au progrès technique, les individus se sont habitués à un environnement où la quête du confort, de la rapidité, du divertissement, permet la généralisation et la pérennisation de systèmes techniques invasifs, au détriment de certaines libertés fondamentales15>E. Verdon, «La reconnaissance faciale, du déverrouillage de téléphone à la surveillance de masse», TC, 10 juin 2022.(droit à la vie privée, à l’anonymat, à l’indépendance de la pensée…), garanties de nos sociétés démocratiques.

En fournissant nos données, nous transférons une partie de notre libre arbitre et la faculté d’agir sur nos opinions jusqu’à influencer des élections16>V. Tisserant, «Comment l’usage de vos données peut influencer les élections», TC, 12 juin 2020.. Le cas de Cambridge Analytica17> I. Manokha, «Le scandale Cambridge Analytica contextualisé», Cultures et conflits, 109, printemps 2018, pp 39-59.a été le plus médiatisé: il a montré au monde la capacité de manipulation politique que possédaient les réseaux sociaux dans des élections aussi déterminantes que la présidentielle Américaine de 2016 ou le référendum britannique sur l’appartenance à l’Union européenne la même année. Si l’entreprise a été fermée en 2018, rien n’a véritablement changé.18>M. Untersinger, D. Leloup, «Christopher Wylie: ‘Cambridge Analytica a fermé, mais ses tactiques n’ont pas disparu’», Le Monde, 11 mars 2020.Ciblés par les annonceurs, individualisés et profilés par les assureurs, influencés politiquement et soumis aux décisions opaques et arbitraires d’algorithmes, nous nous isolons et ne partageons plus la volonté générale que Rousseau définit comme la somme des volontés particulières et considère comme préalable au sentiment de société.

Politiser la question de l’usage des technologies

Ce changement de contrat se fait à bas bruit et les individus peuvent alors être victimes d’usages abusifs de leurs données par ces systèmes technologiques supposés apolitiques. D’autant plus s’ils sont déjà victimes de discriminations.19> K. Gentelet, L.C. Mathieu, «Comment l’intelligence artificielle reproduit et amplifie le racisme», TC, 23 nov. 2021.
La technologie semble toujours se situer hors du débat politique et s’imposer aux sociétés qui n’ont d’autre choix que l’acceptation (plus ou moins partielle). Conscients des risques, les parlements et les institutions internationales se mettent à légiférer sur la question, à rédiger des chartes éthiques, des règlements. C’est le cas des divers règlements européens dont le règlement général sur la protection des données (RGPD) est le plus connu.

Pourtant, ces questions restent souvent très techniques et juridiques, excluant d’emblée les individus qui subissent les dommages causés par le traitement de leurs données (ciblage, amoindrissement du libre arbitre, discriminations, surveillance, notation, influence…).

Pour Rousseau, seuls des individus libres peuvent construire une société libre. Or, le manque de recul critique et d’une prise de conscience des enjeux du numérique ainsi que l’absence d’une éducation numérique menacent les fondements de nos sociétés démocratiques. Il serait nécessaire de politiser la question, que les citoyens se saisissent de ces sujets et en débattent afin de dessiner ensemble les contours d’un futur technologique enviable pour et par tous.

Notes[+]

Doctorant en philosophie à Sorbonne Université. Article paru sous le titre «Exploitation des données: un changement de contrat social à bas bruit» dans The Conversation (TC), 27 fév 2023, theconversation.com

 

Opinions Contrechamp Adrien Tallent Intelligence artificielle

Connexion