À mesure que l’utilisation de l’IA se développe, sa régulation à l’échelle mondiale devient un enjeu d’une urgence croissante. Les Nations unies ont récemment adopté une résolution prévoyant la création de deux nouveaux mécanismes de gouvernance, tandis que la loi européenne sur l’IA, qui constitue le premier cadre juridique complet au monde, doit bientôt entrer en vigueur. Pourtant, ces avancées laissent subsister d’importantes lacunes, notamment sur les usages militaires et de surveillance de l’IA, dont l’impact sur les droits humains ne cesse de s’intensifier. Dans un contexte où les États-Unis sapent la coopération multilatérale et où les grandes entreprises technologiques se rapprochent de plus en plus des régimes autoritaires, la société civile risque de demeurer le dernier rempart pour la protection des droits humains. Les luttes actuelles autour de la régulation détermineront si l’IA servira le bien commun ou si elle consolidera le pouvoir des élites.

À Gaza, des algorithmes décident qui vit et qui meurt. En Serbie, des journalistes sont suivis par une surveillance assistée par l’IA. À Pékin, des armes autonomes sont présentées lors d’un défilé militaire. Ce n’est pas de la science-fiction, mais bien notre réalité. La révolution de l’IA bouleverse à une vitesse vertigineuse de nombreux aspects de la vie quotidienne, entraînant des conséquences majeures pour les droits humains. D’où l’urgence croissante de définir des règles claires pour encadrer son usage – et de déterminer qui doit en fixer les contours.

Parce que l’IA a des implications globales, elle appelle des réponses coordonnées à l’échelle internationale. Le 26 août, l’Assemblée générale des Nations unies (ONU) a franchi une étape décisive en adoptant une résolution instaurant les tout premiers mécanismes internationaux spécifiquement conçus pour régir l’IA. Mais comme l’ont montré les négociations tendues qui ont précédé cette résolution, la communauté internationale peine encore à aborder cette question de manière adéquate.

Des préoccupations en matière de droits humains

La société civile s’inquiète tout particulièrement de la capacité de l’IA à intensifier les atteintes aux droits humains et à rétrécir l’espace civique. Ces craintes se sont renforcées face à l’alignement croissant des oligarques technologiques sur l’administration Trump et d’autres États répressifs.

L’IA peut être utilisée pour réprimer les droits lorsqu’elle est intégrée à des systèmes de surveillance, tels que les technologies de reconnaissance faciale, ce qui amplifie leur portée et leur efficacité, y compris à l’encontre des manifestants. Elle accélère aussi la diffusion de la désinformation, notamment via les vidéos deepfakes, alimentant divisions, haine et polarisation, avec des conséquences particulièrement préoccupantes en période électorale. Les biais intégrés aux algorithmes de l’IA risquent de perpétuer des discriminations, notamment sur la base du genre et de l’origine ethnique.

Dans le domaine militaire, l’IA est utilisée dans les armes autonomes létales, communément appelées « robots tueurs », capables d’identifier, de sélectionner et d’éliminer des cibles humaines sans intervention humaine. La campagne de génocide menée par Israël à Gaza  illustre les conséquences de cette évolution : la déshumanisation de la violence modifie radicalement la notion de responsabilité. Pourtant, malgré ces risques considérables, les armes autonomes létales restent largement hors de tout cadre juridique. Depuis 2014, des discussions ont lieu lors des réunions des États parties de la Convention de l’ONU sur certaines armes classiques, mais elles n’ont jusqu’à présent pas abouti, car le processus décisionnel fondé sur le consensus permet aux grandes puissances militaires telles qu’Israël, la Russie et les États-Unis de bloquer toute avancée.

La contribution de l’IA à la crise climatique

Les impacts climatiques et environnementaux de l’IA constituent une autre source d’inquiétude. Une simple interaction avec un chatbot tel que ChatGPT consomme environ 10 fois plus d’électricité qu’une recherche Google classique. L’Agence internationale de l’énergie prévoit que la consommation électrique mondiale des centres de données va plus que doubler entre 2024 et 2030 pour atteindre environ 945 térawattheures, soit l’équivalent de la consommation électrique annuelle totale du Japon. L’IA est le principal moteur de cette augmentation.

La forte demande en électricité des centres de données, causée par l’expansion de l’IA, pousse à la construction de centrales électriques au gaz et retarde les projets de démantèlement des centrales à charbon, alors même que tout espoir de contenir la hausse des températures mondiales repose sur l’abandon des combustibles fossiles. Les émissions de Microsoft auraient bondi de 29% depuis 2020, en raison de la multiplication de ses centres de données destinés aux charges de travail liées à l’IA. De son côté, Google a récemment retiré de son site web son engagement à atteindre la neutralité carbone d’ici 2030 : ses émissions ont grimpé de 48% entre 2019 et 2023 sous l’effet du déploiement de l’IA.

Les centres de données nécessitent aussi d’immenses volumes d’eau pour leurs systèmes de refroidissement. ChatGPT consomme environ un demi-litre d’eau douce pour chaque tranche de cinq à cinquante requêtes. Entre 2021 et 2022, la consommation d’eau de Microsoft a augmenté de 34%, et celle de Google de 20%, une hausse que les chercheurs attribuent en grande partie à l’expansion de l’IA.

Des modèles de gouvernance concurrents

La récente résolution des Nations unies institue deux mécanismes de gouvernance inscrits dans le cadre du Pacte numérique mondial adopté lors du Sommet de l’avenir en septembre 2024 : un panel scientifique international indépendant sur l’IA et un dialogue mondial sur la gouvernance de l’IA. Le panel scientifique, composé de 40 experts, aura pour mission de publier chaque année des évaluations fondées sur des données probantes concernant les risques, opportunités et impacts de l’IA. Le dialogue mondial offrira quant à lui une plateforme de discussion aux États et autres acteurs pour discuter de la coopération internationale et partager les meilleures pratiques.

Cette résolution est le fruit d’un compromis soigneusement négocié entre différentes visions de la gouvernance de l’IA qui reflètent les divisions géopolitiques.

À travers son initiative mondiale pour la gouvernance de l’IA, la Chine prône une approche multilatérale pilotée par les États, excluant délibérément la société civile. Elle cherche en parallèle à se positionner comme un leader du Sud global en mettant l’accent sur le développement et le renforcement des capacités. Elle présente son approche comme une réponse à la domination technologique occidentale et insiste sur le fait que le développement de l’IA doit servir des objectifs économiques et sociaux plus larges. Les États du Groupe des 77, qui rassemble principalement des pays du Sud, appellent collectivement à un déploiement responsable et inclusif de l’IA, en donnant la priorité à son potentiel d’amélioration des économies numériques, de l’éducation, de la santé et des services publics, et exigeant la participation pleine et entière de toutes les parties prenantes aux discussions de gouvernance de l’IA.

À l’inverse, les États-Unis sous Trump visent à préserver leur suprématie par une logique « America First » qui met l’accent sur les restrictions à l’exportation et les « réseaux de confiance » réservés aux alliés en lieu et place d’une coopération multilatérale. Ils adoptent le technonationalisme, une stratégie qui considère l’IA comme un outil de levier économique et géopolitique et met de côté la coopération multilatérale au profit d’accords bilatéraux. Parmi les décisions récentes qui reflètent ce changement – et rendent la coopération mondiale encore plus difficile – figurent l’imposition d’un droit de douane de 100% sur les puces d’IA importées et l’acquisition par l’État de 10% du capital du géant technologique Intel.

L’Union européenne (UE), quant à elle, adopte une approche différente, en recherchant une réglementation globale fondée sur les risques à travers des cadres juridiques. Elle accorde la priorité à l’indépendance du panel scientifique et à l’importance du dialogue multipartite, cherchant à concilier innovation technologique et protection des droits humains.

La résolution des Nations unies ne créé aucune obligation juridique. Cependant, elle ouvre la voie à des discussions susceptibles d’aboutir à des normes et des règles contraignantes. Le défi consistera à traduire ces avancées diplomatiques fragiles en protections tangibles pour les droits humains et pour la sécurité mondiale, dans un contexte où le système international ne cesse de se fragmenter.

L’approche de l’UE

Contrairement à l’approche souple de l’ONU en matière de gouvernance, l’UE a adopté une voie plus normative avec sa loi sur l’IA, qui entrera en vigueur le 2 août 2026. Saluée comme le premier cadre juridique complet sur l’IA, elle établit des règles basées sur les niveaux de risque, les obligations devenant plus strictes à mesure que les dangers potentiels augmentent. Les mesures visent à garantir la sécurité, protéger les droits fondamentaux et promouvoir une IA centrée sur l’humain, tout en soutenant l’investissement et l’innovation.

Cette approche par niveaux interdit purement et simplement les systèmes d’IA qui présentent des risques jugés « inacceptables », tout en soumettant ceux qui sont considérés comme présentant un « risque limité » à des exigences de transparence. Les modèles actuels d’IA générative relèvent de cette catégorie de risque limité, ce qui implique des garanties minimales, comme informer les utilisateurs sur le fait qu’ils interagissent avec l’IA, et prévenir la production de contenus illégaux.

Cette loi sur l’IA représente une avancée notable pour encadrer une technologie aujourd’hui dominée par les puissants de la Silicon Valley. Cependant, la société civile a tiré la sonnette d’alarme concernant de graves lacunes qui compromettent les protections des droits humains prévues par la loi. Alors que la proposition initiale prévoyait l’interdiction totale de la reconnaissance faciale en temps réel, la version finale de la loi autorise certains usages sous réserve de garanties que les groupes de défense des droits humains jugent insuffisantes. De même, si la loi interdit les technologies de reconnaissance des émotions dans l’éducation et sur le lieu de travail, elle en autorise l’usage par les forces de l’ordre et les services d’immigration. Une faille d’autant plus préoccupante que ces systèmes sont connus pour reproduire des préjugés raciaux. La coalition Protect Not Surveil (« Protéger, pas surveiller ») a averti que les migrants et les minorités raciales en Europe servent déjà de terrain d’expérimentation pour les outils de surveillance et de suivi basés sur l’IA.

Par ailleurs, la loi exempte explicitement les systèmes d’IA employés à des fins de sécurité nationale et, plus grave encore, les drones autonomes utilisés dans les conflits armés. Cette exclusion est particulièrement problématique dans la mesure où l’UE se veut à la dois pionnière normative en matière d’IA et fournisseur d’armes majeur, notamment à destination d’Israël. L’hypocrisie internationale s’est récemment manifestée lorsque Israël a signé la Convention du Conseil de l’Europe sur l’IA et les droits humains, tout en continuant à recourir massivement à l’IA pour la surveillance de masse et les frappes meurtrières à Gaza.

La lutte à venir

La réglementation des technologies numériques approche d’un moment décisif, car les mandats de plusieurs espaces de dialogue de longue date, comme le Groupe de travail à composition non limitée de l’ONU sur la sécurité du numérique et de son utilisation, ou encore le Forum sur la gouvernance de l’Internet, arrivent à échéance. Ces plateformes ont favorisé jusqu’ici des discussions inclusives, réunissant gouvernements, entreprises, société civile et experts techniques. Leur disparition potentielle a suscité des discussions urgentes sur l’avenir de la gouvernance technologique. L’entrée en vigueur de la loi européenne sur l’IA constituera une étape importante pour l’encadrement mondial de cette technologie, mais des mesures supplémentaires seront nécessaires pour en renforcer les fondements.

La nature mondiale des technologies d’IA exige des solutions mondiales. Or, jusqu’à présent, les initiatives se résument à un patchwork hétérogène : règles régionales, résolutions internationales non contraignantes et autorégulation laxiste de l’industrie, le tout sur fond de rivalités géopolitiques et de visions concurrentes de la gouvernance technologique. Les intérêts particuliers des États l’emportent sur les besoins collectifs de l’humanité et sur les droits humains universels. Parallèlement, les entreprises qui conçoivent et détiennent les systèmes d’IA se voient conférer un pouvoir potentiel colossal. Toute tentative de régulation de l’IA qui n’affronte pas cette concentration de pouvoir est vouée à l’échec.

Il est urgent que des acteurs du système international se positionnent en véritables champions d’une régulation forte, centrée sur les droits humains. Le rythme du développement de l’IA ne laisse aucune marge au retard.

NOS APPELS À L’ACTION

  • Les Nations unies doivent renforcer les mécanismes de gouvernance de l’IA et engager sans délai des négociations en vue d’un traité interdisant les systèmes d’armes autonomes létales.
  • L’Union européenne doit combler les lacunes de la loi sur l’IA, en particulier concernant la reconnaissance faciale, les utilisations par les forces de l’ordre, le contrôle migratoire et les applications militaires.
  • Les gouvernements doivent mettre en place des mécanismes de coordination efficaces afin de réduire l’emprise des géants technologiques sur le développement et le déploiement de l’IA.

Pour tout entretien ou information complémentaire, veuillez contacter research@civicus.org

Photo de couverture par Suriya Phosri/Getty Images via Gallo Images