L’Europe entre dans une nouvelle ère de régulation de l’intelligence artificielle. En 2024, l’Union européenne (UE) a adopté le règlement sur l’intelligence artificielle (AI Act) – première tentative globale d’encadrer ces technologies – tandis que le Conseil de l’Europe a négocié une convention reliant l’intelligence artificielle aux droits humains et à l’Etat de droit. La Suisse n’est pas soumise au règlement de l’UE, mais elle a signé la convention du Conseil de l’Europe et réfléchit à la manière d’encadrer l’intelligence artificielle au niveau national. Le Conseil fédéral devrait présenter son approche d’ici à fin 2026.
Parallèlement, l’UE mettra progressivement en œuvre son Pacte sur la migration et l’asile à partir de juin 2026. L’AI Act prévoit déjà l’utilisation de l’intelligence artificielle dans la gestion des frontières et des procédures d’asile, notamment pour aider les autorités à évaluer des éléments de preuve. La Suisse ne fait pas partie du Pacte dans son ensemble, mais son association aux systèmes de Schengen et de Dublin implique qu’elle reprendra certaines mesures liées à ces accords.
Pour l’instant, rien n’indique que la Suisse envisage d’utiliser directement l’intelligence artificielle en matière d’asile. L’approche fédérale en matière d’IA s’est concentrée, de manière générale, sur l’innovation, la protection des droits fondamentaux et la confiance du public dans l’usage de ces technologies. Cela dit, l’approche nationale évoluant souvent en parallèle des tendances européennes, il est légitime de s’interroger sur les implications de l’intelligence artificielle dans ces procédures.
Les débats sur l’intelligence artificielle évoquent à la fois des bénéfices et des risques. Les partisans soulignent des gains d’efficacité administrative, tandis que les critiques mettent en garde contre les biais, l’opacité des systèmes algorithmiques et certaines formes intrusives de collecte et de partage de données. Pour ces raisons, l’AI Act classe l’utilisation de l’IA dans les procédures d’asile et le contrôle des frontières comme «à haut risque».
Une chose frappe: plusieurs risques associés à l’intelligence artificielle dans le domaine de l’asile révèlent des failles déjà signalées par des praticiens, des chercheurs et des militants – y compris par des personnes ayant elles-mêmes vécu une procédure d’asile. Biais, intrusions dans la vie privée, manque de transparence et effets négatifs d’une recherche d’efficacité administrative dans un contexte de forte pression institutionnelle: ces risques sont depuis longtemps documentés.
Les évaluations de la vraisemblance obligent les autorités à interpréter des récits à travers des cadres culturels qui ne correspondent pas toujours à la manière dont les requérant·es d’asile décrivent leurs expériences. Ce décalage est particulièrement visible dans les demandes fondées sur l’orientation sexuelle, l’identité de genre, l’expression de genre ou les caractéristiques sexuelles (OSIEGCS), où les attentes quant à la manière dont l’identité doit être exprimée reflètent souvent des présupposés eurocentriques. Ces entretiens comportent aussi une dimension d’intrusion dans la vie privée, à travers des questions parfois très intimes sur la vie personnelle.
L’intelligence artificielle est présentée comme un moyen d’accroître l’efficacité des procédures. Des décisions plus rapides pourraient réduire les effets de longues périodes d’incertitude, qui pèsent sur la santé mentale des requérant·es d’asile. Mais les autorités en charge de l’asile travaillent déjà sous forte pression pour traiter un grand nombre de dossiers. Elles s’appuient sur des raisonnements standardisés et des catégories de preuve simplifiées pour gérer leur charge de travail. Dans ce contexte, la distance administrative dans le traitement des dossiers – et des personnes qui se trouvent derrière ces dossiers – est aussi une conséquence des contraintes institutionnelles auxquelles sont confrontées les autorités compétentes. Par ailleurs, de l’extérieur, il peut être difficile de comprendre précisément comment certaines décisions sont prises ou quels éléments ont été jugés déterminants dans l’évaluation d’un dossier.
Ainsi, le débat sur l’intelligence artificielle dans les procédures d’asile ne concerne pas seulement l’idée de machines remplaçant l’échange et le jugement humains. Il invite aussi à s’interroger sur la manière dont ces procédures fonctionnent déjà.
L’intelligence artificielle ne transformera pas, à elle seule, le système d’asile. Elle s’inscrit dans un mouvement plus large. En Europe, des réformes ont déjà limité l’accès aux procédures d’asile et restreint les droits des personnes en quête de protection. Les nouvelles technologies risquent alors moins de bouleverser le système que d’en renforcer les tendances à l’œuvre.