Agora

La Suisse doit interdire les robots tueurs

Pour Alice Beck, coordinatrice de la campagne contre les robots tueurs, il est crucial que la Suisse prenne une position forte contre ces armes moralement douteuses.
Armement

La semaine passée le Conseil national a adopté le postulat de la Commission de la politique de sécurité «Des règles claires pour les armes autonomes et l’intelligence artificielle», chargeant ainsi le Conseil fédéral à examiner les effets d’armes autonomes sur la sécurité de la Suisse et d’établir quelle sera la doctrine d’engagement de l’armée. En parallèle, en réponse à une interpellation sur le positionnement suisse vis-à-vis des systèmes d’armes létales autonomes, le Conseil fédéral assure que la Suisse s’engagera en faveur d’un cadre normatif et opérationnel qui servira de base à un instrument juridiquement contraignant. Cette déclaration a été rappelée au cours du débat sur le postulat au Conseil national.

Cette prise de position suisse arrive au bon moment. Il est en effet crucial que la Suisse prenne une position forte contre ces armes moralement douteuses, et se joigne aux appels en faveur d’un nouveau traité interdisant les robots tueurs.

Les systèmes d’armes létales autonomes, également connus sous le nom de «robots tueurs», sont des systèmes d’armes qui peuvent sélectionner et viser des cibles sans contrôle humain significatif. Cela signifie que la décision sur la vie et la mort est déléguée à une machine. Les robots tueurs présentent ainsi toute une série de défis juridiques, sécuritaires et éthiques.

Les robots tueurs peuvent sembler sortir d’un scénario futuriste ou de romans de science-fiction, mais le fait est qu’ils sont déjà en bonne voie d’être développés et utilisés dans les conflits contemporains. Lors du conflit du Haut-Karabakh entre l’Arménie et l’Azerbaïdjan l’an passé, l’Arménie a eu recours à des «drones kamikazes» fabriqués par Israël – dans ce cas, des exemplaires du Harpy. Le Harpy est programmé pour flâner dans les airs, détecter les signaux radar ennemis et effectuer une «attaque kamikaze» sur le radar émetteur. Ces armes ne sont pas des systèmes d’armes létales autonomes comme ceux que l’on craint, mais elles démontrent la tendance à une autonomie croissante dans les moyens de guerre. En effet l’utilisation de systèmes d’armes hautement automatisés est en ­augmentation.

Plus récemment, selon un rapport des Nations unies, le drone kamikaze nommé Kargu-2 aurait attaqué des humains sans contrôle humain en Libye. L’ère des robots tueurs serait-elle donc déjà arrivée?

On craint de plus en plus et de manière crédible que dans le futur, la technologie des armes puisse aller plus loin, utilisant l’intelligence artificielle pour cibler des individus, écartant ainsi les humains de la prise de décision sur la vie et la mort. Il est essentiel que les Etats prennent des mesures concrètes pour s’assurer que les humains restent dans la course lorsqu’ils se servent d’armes disposant de divers degrés d’autonomie.

Un engagement audacieux et fort est nécessaire pour empêcher que des systèmes d’armes létales autonomes ne deviennent une réalité sur les champs de bataille de demain. Le gouvernement suisse doit agir rapidement pour empêcher ce sombre avenir.

Opinions Agora Alice Beck Armement

Connexion