Robots tueurs : l’essor terrifiant de la guerre algorithmique
Les systèmes d’armes autonomes prennent des décisions de vie ou de mort dans les conflits, sans intervention humaine. Ces systèmes algorithmiques sélectionnent et engagent des cibles grâce à la reconnaissance de formes, ce qui soulève de sérieuses questions éthiques et des défis majeurs en matière de responsabilité. Bien que le droit international humanitaire existant s’applique, aucun traité spécifique ne réglemente ces nouvelles armes. Après plus d’une décennie de négociations au point mort au sein de la Convention des Nations unies (ONU) sur certaines armes classiques, l’Assemblée générale des Nations unies a mandaté un processus visant à traiter cette question. La société civile, menée par la campagne « Stop Killer Robots » (« Stoppons les robots tueurs »), plaide pour une approche à deux niveaux combinant des interdictions et des réglementations. La communauté internationale est confrontée à une échéance cruciale : conclure les négociations d’un traité d’ici 2026.
À Gaza, des systèmes algorithmiques ont généré des listes de cibles à abattre pouvant compter jusqu’à 37 000 cibles, et des machines dépourvues de conscience prennent en une fraction de seconde des décisions de vie ou de mort. Ce n’est pas de la science-fiction : les systèmes d’armes létales autonomes, mieux connus sous le nom de « robots tueurs », font partie de la réalité d’aujourd’hui. Ils sont également déployés en Ukraine et ont été présentés lors du récent défilé militaire en Chine. Les États les utilisent pour obtenir un avantage compétitif dans la conduite de la guerre et, à mesure qu’ils les intègrent dans leurs chaînes de destruction militaires, ils semblent excessivement confiants dans leur capacité à garder le contrôle total. La société civile exige l’interdiction des armes qui présentent les risques les plus élevés ainsi qu’une réglementation stricte de toutes les autres.
La technologie et son déploiement
Les systèmes d’armes autonomes sont des armes qui, une fois activées par un humain, sélectionnent et engagent des cibles sans autre intervention humaine supplémentaire. Contrairement aux drones, pilotés par un humain qui appuie sur la gâchette, ces systèmes prennent des décisions de vie ou de mort à l’aide d’algorithmes, en traitant des données provenant de capteurs – telles que la reconnaissance faciale, les signatures thermiques et les schémas de mouvement – afin d’identifier des profils de cibles préprogrammés et de tirer automatiquement lorsqu’une correspondance est détectée.
Les systèmes d’armes autonomes peuvent opérer dans les airs, sur terre, sur l’eau et dans l’espace, et peuvent être déployés dans des conflits armés, des opérations de contrôle aux frontières et des missions de maintien de l’ordre. Leurs effets sont déjà visibles. La campagne militaire israélienne a été le théâtre du premier cas de génocide assisté par l’IA. Les forces armées israéliennes ont déployé plusieurs systèmes de ciblage algorithmiques, notamment The Gospel et Lavender, qui génèrent des listes de cibles humaines et identifient les infrastructures à bombarder, et Where’s Daddy (« Où est papa ? ») qui traque les membres présumés du Hamas afin de les tuer lorsqu’ils sont chez eux avec leur famille.
Les systèmes d’IA sont dépourvus d’émotions et de toute barrière psychologique qui limite le comportement humain, comme l’hésitation, la réflexion morale et la prise en compte des conséquences. Ils ne peuvent pas se rapprocher du jugement humain, interpréter des situations complexes ni comprendre le contexte, et ils ignorent la valeur de la vie humaine.
Parce qu’ils n’hésitent pas et prennent des décisions à une vitesse stupéfiante, les systèmes d’IA ont le potentiel d’aggraver les conflits. Et comme ils fondent leurs décisions sur la reconnaissance de modèles et des probabilités statistiques, ils présentent un risque très élevé d’erreurs. Des responsables des services de renseignement israéliens ont reconnu que Lavender présente un taux d’erreur d’environ 10%, mais cela n’a pas empêché son déploiement à grande échelle. Israël a simplement intégré l’échec comme un coût acceptable. Au cours des premières semaines de son offensive sur Gaza, les responsables militaires israéliens ont jugé acceptable la mort de 15 à 20 civils pour chaque combattant subalterne du Hamas identifié par l’algorithme. Pour les commandants de haut rang, le coût acceptable pouvait dépasser une centaine de vies civiles.
Une conséquence majeure de la dépersonnalisation de la violence est la perte de responsabilité, qui rend difficile de déterminer qui pourrait être tenu légalement responsable lorsque les décisions entraînent des violations du droit international humanitaire ou des droits humains.
Les inquiétudes liées aux armes autonomes s’inscrivent dans un contexte plus large de doutes sur les évolutions de l’IA, notamment sur ses impacts potentiels sur l’espace civique et les droits humains. À mesure que la technologie devient moins coûteuse, elle se répand dans tous les domaines, des champs de bataille au contrôle des frontières en passant par les opérations de police, ce qui suscite des craintes quant à sa prolifération parmi les gouvernements et d’autres acteurs, y compris les groupes criminels. Parallèlement, l’intégration de l’IA dans les systèmes de surveillance, notamment les technologies de reconnaissance faciale, amplifie leur portée et leur efficacité. La surveillance de masse, devenue nécessaire au développement et à l’entraînement de ces systèmes, porte atteinte au droit à la vie privée. Les biais intégrés aux algorithmes perpétuent également des formes d’exclusion fondées sur le genre, la race et d’autres caractéristiques.
Un vide réglementaire
Même si le droit international humanitaire existant – notamment les règles relatives à la distinction, à la proportionnalité et aux précautions à prendre lors d’une attaque – s’applique à tous les systèmes d’armes, il n’existe à ce jour aucun traité international spécifique interdisant ou réglementant les systèmes d’armes autonomes, ce qui crée un véritable vide réglementaire.
Des discussions sur un éventuel traité sont en cours depuis longtemps dans le cadre de la Convention sur certaines armes classiques (CCAC) de l’ONU. En 2013, les États qui ont ratifié la CCAC ont convenu d’entamer des discussions sur les systèmes d’armes autonomes. De 2014 à 2016, ils ont tenu des réunions informelles d’experts et en 2017 ils ont créé un organe, le Groupe d’experts gouvernementaux sur les systèmes d’armes létales autonomes, qui se réunit régulièrement.
Ce groupe offre un espace dans lequel des représentants gouvernementaux, des experts juridiques, des spécialistes militaires et des organisations de la société civile (OSC) peuvent présenter leurs points de vue et discuter de questions juridiques et techniques, dans le but de créer un nouveau protocole à la CCAC pour réglementer les systèmes d’armes autonomes, à l’instar de ceux qui réglementent les armes telles que les mines terrestres. Le Protocole II amendé, par exemple, réglemente l’utilisation des mines terrestres en les restreignant considérablement plutôt qu’en les interdisant complètement. Il est important de noter qu’un traité distinct et plus complet, la Convention sur l’interdiction des mines antipersonnel, également connue sous le nom de Convention d’Ottawa, existe également en dehors du cadre de la CCAC et interdit les mines antipersonnel.
La réglementation des systèmes d’armes autonomes semble suivre une trajectoire similaire. Le fait que la CCAC exige un consensus pour prendre des décisions permet à tout État de bloquer des propositions, et les grandes puissances militaires, notamment l’Inde, Israël, la Russie et les États-Unis, l’ont fait de manière persistante pour empêcher toute avancée. Lors de la dernière session du Groupe d’experts gouvernementaux qui s’est tenue en septembre, 42 États ont présenté une déclaration commune affirmant leur volonté d’aller de l’avant. Il s’agissait d’une avancée majeure après plus d’une décennie de négociations au point mort, mais la voie à suivre restait bloquée par les principaux États opposants.
Pour contourner ces obstacles, la communauté internationale a eu recours à un mécanisme parallèle. En décembre 2023, l’Assemblée générale de l’ONU a adopté la résolution 78/241, la première consacrée aux systèmes d’armes létales autonomes, avec 152 États votant pour, quatre contre (la Biélorussie, l’Inde, le Mali et la Russie) et 11 abstentions. La résolution demandait au Secrétaire général de l’ONU de solliciter l’avis des États et des autres parties prenantes sur les questions éthiques, humanitaires, juridiques, sécuritaires et technologiques soulevées par les systèmes d’armes autonomes.
En décembre 2024, l’Assemblée générale de l’ONU a adopté la résolution 79/62, avec 166 voix pour, trois contre (la Biélorussie, la Corée du Nord et la Russie) et 15 abstentions. Cette résolution prévoyait la tenue de consultations informelles entre les États membres de l’ONU. Celles-ci ont eu lieu à New York en mai et étaient ouvertes à tous les États membres et observateurs de l’ONU, ainsi qu’aux OSC, au Comité international de la Croix-Rouge (CICR), à la communauté scientifique et à l’industrie de l’armement. Les discussions ont dépassé le seul cadre du droit international humanitaire qui caractérisait le processus de Genève, en abordant des dilemmes éthiques, les implications en matière de droits humains, les menaces pour la sécurité et les risques technologiques. Le Secrétaire Général de l’ONU, le CICR et de nombreuses OSC, dont la campagne « Stop Killer Robots », ont appelé à la conclusion des négociations d’ici la fin 2026, compte tenu de la rapidité du développement de l’IA militaire.
La campagne de la société civile
Stop Killer Robots, une coalition mondiale regroupant plus de 270 OSC internationales, régionales et nationales ainsi que des partenaires universitaires dans plus de 70 pays, mène le combat en faveur d’une réglementation depuis 2012. La campagne a joué un rôle crucial dans l’orientation du débat en mettant en évidence les risques multiples que présentent les systèmes d’armes autonomes et en produisant des recherches opportunes sur leur évolution. La campagne s’adresse à tous les décideurs susceptibles d’influencer cet agenda, du niveau local au niveau mondial, en reconnaissant que la pression de l’opinion publique est essentielle pour pousser les dirigeants politiques à conclure un traité.
La campagne promeut une approche à deux niveaux pour les systèmes d’armes autonomes, une proposition actuellement soutenue par plus de 120 États. Celle-ci combine l’interdiction des types de systèmes d’armes autonomes les plus problématiques et la réglementation des autres. Si elle était mise en œuvre, cette approche interdirait les systèmes qui ciblent directement des êtres humains, qui fonctionnent sans contrôle humain significatif, ou dont les effets ne peuvent être prévus ou contrôlés de manière adéquate.
Les systèmes qui ne seraient pas interdits seraient autorisés uniquement sous de strictes restrictions et exigences visant à garantir la responsabilité, la supervision humaine, la prévisibilité et la fiabilité. Les réglementations pourraient inclure des limites sur les types de cibles – par exemple, les restreindre aux objets militaires plutôt qu’aux personnes – ainsi que des limites concernant les conditions, les lieux et la durée de leur utilisation. Elles pourraient également imposer des exigences en matière de supervision humaine et de la capacité humaine à intervenir et à désactiver les systèmes, mais aussi des tests et des examens obligatoires avant leur déploiement.
Un moment décisif
Face à l’évolution rapide de la technologie, l’ONU a appelé à la conclusion, d’ici 2026, de négociations sur un traité juridiquement contraignant visant à réglementer ou à interdire ces armes. Cela signifie que la communauté internationale n’a qu’un an pour parvenir à un accord que dix années de discussions n’ont jusqu’à présent pas permis d’aboutir.
La question fondamentale est de savoir si les machines devraient être autorisées à prendre des décisions létales sans contrôle humain significatif. Les États qui soutiennent la réglementation affirment que certaines décisions concernant l’usage de la force ne peuvent tout simplement pas être déléguées à des algorithmes. A l’inverse, les États qui s’y opposent soutiennent que le droit international humanitaire existant est suffisant.
La technologie ne peut être désinventée, mais elle peut être contrôlée. Une fois que les systèmes d’armes autonomes seront largement déployés et que l’idée que des machines décident de qui vit et de qui meurt sera banalisée, il sera beaucoup plus difficile d’imposer des restrictions. Les choix qui seront faits (ou évités) au cours des prochaines années détermineront s’il est encore possible d’établir des limites significatives.
NOS APPELS À L’ACTION
-
Les États devraient engager des négociations sur le contrôle des systèmes d’armes autonomes dans le cadre de l’Assemblée générale des Nations unies ou dans d’autres forums où la nécessité de trouver un consensus ne permet pas à un petit nombre d’États de bloquer les progrès.
-
Les États doivent négocier, d’ici 2026, un traité qui interdit les systèmes d’armes autonomes ciblant des êtres humains ou fonctionnant sans contrôle humain significatif.
-
Les États doivent mettre en place des mécanismes clairs de responsabilité en cas de violations impliquant des systèmes d’armes autonomes.
Pour des entretiens ou de plus amples informations, veuillez contacter research@civicus.org
Photo de couverture par Annegret Hilse/Reuters via Gallo Images


