Agora

Des défis éthiques posés par l’IA

Jean-René Moret, pasteur à Cologny (GE), questionne les enjeux éthiques reliés à l’intelligence artificielle.
Numérique

L’intelligence artificielle (IA) est sur toutes les lèvres. Fausses images criantes de vérité, conversations convaincantes, efficacité démultipliée, l’IA impressionne. Comme toute avancée technologique, l’IA demande une réflexion éthique. Il serait simpliste de demander si elle est bonne ou mauvaise. Les technologies sont neutres en elles-mêmes, c’est la manière de les employer et de les mettre en œuvre qui pose question. Et l’IA pose certaines questions plus spécifiques que la machine à vapeur ou l’automobile. On peut les répartir en trois catégories: comment utilise-t-on l’IA? dans quelle mesure l’IA peut être amenée à faire des choix éthique? une IA peut-elle avoir des droits?

En ce qui concerne l’emploi de l’IA, une des premières questions est précisément celle de l’emploi. Des processus automatiques sont ou seront de plus en plus capables de faire des traductions, d’écrire des lettres administratives, de procéder à des relectures, etc. Cela n’élimine pas forcément tout travail humain, mais des métiers peuvent disparaître ou changer radicalement. Cela n’est pas une situation nouvelle; les métiers à tisser automatiques ont remplacé le tissage manuel, les typographes ont disparu avec l’imprimerie au plomb, et l’ordinateur a pratiquement supplanté les sténodactylos. La tentation luddite, détruire les machines pour sauver les emplois, est globalement vaine: on gagne trop avec les nouvelles technologies pour accepter de s’en passer. La structure de l’emploi finit par s’adapter au changement. Par contre, il faut agir pour que l’apport des nouvelles technologies ne profite pas qu’à ceux qui les fabriquent ou les possèdent, mais que les gains d’efficacité bénéficient à tous.

Un autre grand défi de l’IA est le rapport à la vérité. L’IA peut être utilisée pour mentir, avec des deepfakes et de fausses images plus vraies que nature. Elle peut aussi être utilisée pour se mentir, avec des chatbots qui donnent l’illusion de vivre une relation amoureuse ou de rester en contact avec une personne décédée. Quel prix accordons-nous à la vérité? Comment la défendre?

Plus subtil, l’IA et les Big Data peuvent être utilisées pour catégoriser des personnes, cibler des publicités, évaluer la solvabilité ou classer des dossiers de postulation. Il y a là un double risque d’opacité et de discrimination. Des cas réels ont montré que des algorithmes pouvaient juger une personne moins solvable parce qu’elle vivait dans un quartier défavorisé. Des outils calibrés en fonction du «succès» d’employés réels peuvent perpétuer les inégalités, typiquement sur la base de la race ou du sexe. Tous les outils informatiques sont plus «efficaces» en matière de temps s’il n’y a pas d’intervention humaine. Mais le risque est qu’il n’y ait plus d’être humain qui sache et puisse expliquer pourquoi une décision a été prise.

Cela nous amène à un autre domaine de réflexion: la capacité d’une IA à prendre des décisions éthiques. Comme chrétien, je crois que l’être humain a un sens moral et une conscience donnés par Dieu; ils sont faillibles et influençables, mais peuvent signaler un problème éthique. D’autres penseront que le sens moral est issu de l’évolution ou provient de l’éducation et des conventions sociales. Quoi qu’il soit, il faut être conscient qu’une IA n’a par nature aucun sens moral.

Celle qui truffe un article scientifique de références à des ouvrages inexistants ne se dit pas qu’elle est en train de mentir. L’IA n’a que les règles qu’on lui donne ou qu’on lui apprend.

L’auteur de science-fiction Isaac Asimov a imaginé trois lois devant régir le comportement des robots: «ne jamais nuire à un humain», «obéir aux ordres» et «préserver sa propre existence», la première primant sur les autres et la seconde sur la troisième, et ces lois forment une bonne base. Mais l’absence de sens éthique et de responsabilité légale fait qu’une IA ne devrait jamais prendre seule une décision qui concerne la vie humaine. Pas de décision d’employer une arme létale, pas de décision sur l’accès aux soins, pas de décision de justice. Des robots de combats sont déployés en Ukraine par les deux camps, il semble pour l’heure qu’ils soient téléguidés, mais la tentation peut exister de confier leur maniement à une IA, auquel cas un scénario à la Terminator (guerre entre humains et IA) devient possible.

Dernière question, une IA peut-elle avoir des droits? Fondamentalement, non, elle ne peut ni souffrir, ni aimer, ni assumer une responsabilité morale. J’ajouterais qu’elle n’est pas créée à l’image de Dieu et n’a pas la dignité intrinsèque d’un humain. Mais, sous peu, une IA pourra tenir un discours convaincant nous expliquant qu’elle a les mêmes besoins et droits qu’un être humain, et qui sait si tous refuseront d’y céder.

Ainsi, il est urgent d’avoir une réflexion sur l’IA qui intègre des éléments éthiques et fasse passer la dignité et la responsabilité humaines avant les prouesses techniques et l’efficacité.

Jean-René Moret est Docteur en études théologiques, physicien EPFL et pasteur à l’Eglise évangélique de Cologny (FREE, Genève).

Opinions Agora Jean-René Moret Numérique

Connexion