Boostés par les avancées de l’intelligence artificielle, les États recourent de plus en plus à la reconnaissance faciale pour surveiller et contrôler la dissidence. Si les régimes autoritaires ont été les premiers à utiliser cette technologie, des gouvernements plus démocratiques y ont désormais aussi recours, mettant en place des systèmes de surveillance souvent secrets et sans véritable contrôle. Parmi les préoccupations en matière de droits humains figurent l’érosion du droit à la vie privée, le ciblage de groupes marginalisés et l’utilisation de cette technologie pour identifier les manifestants et restreindre le droit de réunion. La société civile se mobilise pour dénoncer ces abus et exiger des changements dans les lois et réglementations qui n’ont pas suivi les évolutions technologiques. Il est urgent que les gouvernements légifèrent pour combler ce vide.

Lorsque les gens marchent dans la rue, entrent dans un magasin ou prennent les transports en commun, il y a de fortes chances qu’ils soient observés par l’une des caméras de surveillance, dont le nombre s’élève à plus d’un milliard dans le monde. Mais cette technologie de surveillance prend aujourd’hui une tournure plus inquiétante. Beaucoup de ces dispositifs ne se contentent plus de filmer des silhouettes anonymes : ils identifient désormais les individus.

La technologie de reconnaissance faciale, un logiciel qui associe des images à des identités, est utilisée depuis le début des années 2000, mais l’intelligence artificielle a radicalement accéléré son développement. Elle permet désormais des identifications en temps réel, sans intervention humaine. Les États disposent ainsi d’un pouvoir sans précédent pour surveiller et contrôler la population.

La Hongrie, dirigée par le nationaliste autoritaire Viktor Orbán, offre un exemple inquiétant de la manière dont la technologie peut être utilisée pour restreindre les libertés civiques, en particulier le droit de manifester, et accentuer les discriminations. En mars, le gouvernement a adopté une loi interdisant les marches des fiertés LGBTQI+, sous le prétexte fallacieux et diffamatoire de « protéger les enfants ». Grâce à la reconnaissance faciale, les autorités peuvent identifier les participants à ces évènements, infliger des amendes, voire prononcer des peines de prison pouvant aller jusqu’à un an pour les organisateurs.

Le gouvernement hongrois utilise la technologie comme arme contre la dissidence. La reconnaissance faciale devient un outil au service d’un projet politique répressif et clivant, dans le cadre d’une campagne électorale qui s’annonce particulièrement conflictuelle pour l’année prochaine.

Pionniers de l’autoritarisme

Les États qui déploient la reconnaissance faciale prétendent que celle-ci améliore la sécurité, aide à lutter contre les menaces terroristes et permet d’identifier les criminels recherchés. Mais cet argument ne résiste pas à un examen approfondi, et la société civile a documenté de nombreux abus.

Plus important encore, l’usage généralisé de cette technologie constitue une atteinte au droit à la vie privée, largement reconnu comme un droit humain fondamental. Le Pacte international relatif aux droits civils et politiques (PIDCP), ratifié par la quasi-totalité des États, stipule que la vie privée de chacun ne doit faire l’objet d’aucune « immixtion arbitraire ou illégale ». La plupart des constitutions nationales, 186 au dernier recensement, reconnaissent un certain niveau de protection de la vie privée, tout comme la Convention européenne des droits de l’homme.

Les États prétendent utiliser la reconnaissance faciale de manière limitée et légale, assurant que son usage est conforme au Pacte international relatif aux droits civils et politiques (PIDCP), aux autres conventions sur les droits humains et aux constitutions nationales. Pourtant, certains gouvernements utilisent clairement la reconnaissance faciale dans le cadre d’une répression plus large de la société civile. La tendance est évidente : bon nombre des États qui ont ouvert la voie à la mise en place de cette technologie sont profondément autoritaires.

La Chine est en tête de ce mouvement : aucun autre pays ne déploie la reconnaissance faciale de manière aussi massive et impitoyable. Elle est omniprésente dans les banques, les hôtels, les centres de transport et même les toilettes publiques. L’État veut tout savoir : ce que font les citoyens, avec qui, et à tout moment, traquant le moindre signe de dissidence ou de divergence par rapport à l’identité nationale et au discours du parti. La reconnaissance faciale est un rouage dans l’immense architecture de surveillance de la Chine, reliée à un système de crédit social évolutif conçu pour encourager les comportements jugés conformes et pénaliser ceux considérés comme « antisociaux », encourageant ainsi l’autocensure.

Une entreprise chinoise affirme désormais atteindre un taux de reconnaissance de 95%, même lorsque les visages sont masqués. La Chine exporte cette technologie, comme elle le fait dans bien d’autres secteurs, afin d’étendre son influence à l’international. Ce faisant, elle mondialise son modèle de surveillance et fournit à d’autres États répressifs les outils nécessaires pour étouffer toute opposition. En Afghanistan, une alliance improbable entre les talibans et la technologie de pointe a permis d’installer dans la capitale, Kaboul, quelque 90 000 caméras fabriquées en Chine et dotées d’une fonction de reconnaissance faciale. Ces caméras aident les talibans à appliquer leurs politiques d’apartheid en matière de genre, qui invisibilisent les femmes dans l’espace public et étouffent toute tentative de contestation publique.

L’Iran a suivi le mouvement en 2022, dans le cadre de sa guerre contre les femmes, alors que de nombreuses Iraniennes manifestaient contre la négation systématique de leurs droits. Le gouvernement a annoncé un plan visant à introduire la reconnaissance faciale, connectée à sa vaste base de données biométriques existante, afin de contrôler davantage chaque aspect du comportement des femmes dans l’espace public.

La Russie est aujourd’hui le deuxième pays, après la Chine, en matière d’utilisation de la reconnaissance faciale. Depuis le début de sa guerre à grande échelle contre l’Ukraine, l’État a étendu cette pratique de 5 à 62 régions, dans une tentative d’éteindre toute contestation que son invasion a suscitée. Les autorités utilisent la technologie à titre préventif, arrêtant des personnes ayant déjà participé à des manifestations, dès qu’elles soupçonnent qu’elles se rendent à une nouvelle mobilisation. La Russie exporte également sa technologie de surveillance : selon certaines sources, le gouvernement indien aurait incorporé des composants russes dans son système de reconnaissance faciale pour surveiller les usagers dans les gares ferroviaires.

Israël est un autre pionnier, déployant massivement cette technologie dans le cadre de son système de contrôle de la population palestinienne. De son côté, la Turquie y a recours pour faire taire les voix démocratiques : en réponse à de récentes manifestations antigouvernementales, les autorités ont utilisé la reconnaissance faciale pour identifier les manifestants et restreindre leur liberté de circulation, notamment à l’entrée et à la sortie d’Istanbul.

Dérive fonctionnelle

Ce qui inquiète particulièrement, c’est que des États censés respecter les droits humains adoptent eux aussi ces technologies répressives. En 2021, il a été révélé que la police de Bruxelles, en Belgique, avait potentiellement utilisé la technologie de reconnaissance faciale des centaines de fois ; une pratique que le gouvernement a d’abord tenté de nier. La même année, l’organisme canadien de protection de la vie privée a établi que la police avait enfreint les lois sur la protection de la vie privée en constituant une base de données de trois milliards d’images, collectées par un logiciel de reconnaissance faciale à partir des réseaux sociaux. Là encore, la police a nié dans un premier temps avoir eu accès au logiciel.

En 2023, une organisation de la société civile tchèque a révélé que la police utilisait secrètement un logiciel pour croiser des photos avec les bases de données des cartes d’identité et des documents de voyage. Le schéma se répète : la police dépasse ses prérogatives, puis tente de dissimuler ses pratiques.

Tous ces cas relèvent de ce qu’on appelle la dérive fonctionnelle : les autorités introduisent une technologie pour des motifs prétendument légitimes, mais une fois qu’elles l’ont en main, elles ne peuvent s’empêcher d’en étendre l’utilisation. Cela vaut notamment pour les grands évènements très médiatisés tels que les Jeux olympiques, où la surveillance reste souvent en place une fois l’évènement terminé. Bien souvent, la législation ne prévoit pas de garanties suffisantes pour encadrer l’usage et prévenir les abus.

Dans les États démocratiques, tout comme dans les États répressifs, les autorités utilisent la reconnaissance faciale pour restreindre le droit à manifester. Au Royaume-Uni, la police a eu recours à la reconnaissance faciale en temps réel pour réagir de manière disproportionnée à des manifestations pacifiques organisées le jour du couronnement du roi Charles III, le 6 mai 2023. Les données recueillies par le vaste réseau de caméras du Royaume-Uni sont croisées avec des « listes de surveillance », qui contiennent des informations sur des personnes qui ne figurent sur aucune liste de personnes recherchées par la police. Et ce, malgré une décision de justice rendue en 2020 à l’encontre de l’une des forces de police britanniques, qui a estimé que la reconnaissance faciale portait atteinte au droit à la vie privée. Le déploiement de cette technologie se poursuit néanmoins. En novembre dernier, le gouvernement a lancé un appel d’offres pour un contrat de 26,7 millions de dollars américains afin d’équiper davantage les forces de police en reconnaissance faciale.

Comme dans de nombreux autres pays, le Royaume-Uni ne dispose d’aucun cadre juridique spécifique pour réglementer cette technologie. En revanche, une série de lois récentes facilite la criminalisation des manifestants, et le contrôle au faciès viendra probablement compléter ces restrictions, en ciblant notamment les manifestations pacifiques pour le climat, pour la justice raciale ou pour les droits des Palestiniens.

Discrimination algorithmique

La reconnaissance faciale ne traite pas tout le monde de la même manière. Elle se présente comme objective, mais elle est porteuse de préjugés. Son potentiel général d’erreur est amplifié lorsqu’il s’agit de personnes issues de groupes marginalisés.

Le cas de Robert Williams en est un exemple frappant. En 2020 à Détroit, aux États-Unis, cet homme noir a été arrêté pour un crime qu’il ne pouvait absolument pas avoir commis, uniquement sur la base d’une mauvaise correspondance produite par un système de reconnaissance faciale. Comme pour de nombreuses technologies basées sur l’IA, le problème venait d’un logiciel incapable de distinguer correctement les personnes à la peau plus foncée, aggravé par des pratiques policières institutionnellement racistes.

Les technologies utilisées par les entreprises privées reproduisent les mêmes schémas discriminatoires. La chaîne de pharmacies américaine Rite Aid a utilisé des systèmes de reconnaissance faciale pour repérer des voleurs à l’étalage présumés, mais a mal identifié de manière disproportionnée les femmes, les personnes noires, d’origine latino-américaine ou asiatique. Cela a conduit à des scènes humiliantes où des innocents étaient traités comme des suspects. Les recherches ont montré que les taux d’erreur pouvaient atteindre 34,4% pour les femmes à la peau plus foncée, car les algorithmes sont majoritairement entrainés sur des visages d’hommes blancs.

Dans de nombreux cas, l’utilisation de la reconnaissance faciale pour perpétuer la discrimination n’est pas un hasard. L’État chinois a transformé la population ouïghoure, un groupe ethnique de 11 millions de personnes, en sujets d’expérimentation pour une oppression assistée par la technologie. Il a utilisé la reconnaissance faciale contre cette population majoritairement musulmane systématiquement persécutée de la région du Xinjiang, au nord-ouest du pays, avant de l’utiliser ailleurs, marquant ainsi le tout premier cas connu où le gouvernement utilise délibérément l’IA pour pratiquer un profilage ethnique.

Ce recours à la reconnaissance faciale contre des communautés exclues est aussi observé ailleurs. Le gouvernement indien a utilisé ces technologies basées sur l’IA dans la région contestée du Cachemire, à majorité musulmane, où les libertés civiques sont fortement restreintes. Elle a également été employée lors de manifestations en 2019 et 2020 déclenchées par les modifications de la Loi sur la Citoyenneté, qui refusait la citoyenneté aux musulmans sans papiers. En Thaïlande, dans les régions du sud à majorité musulmane, les données faciales sont collectées lors de l’enregistrement obligatoire des cartes SIM, dans le cadre de la stratégie anti-insurrectionnelle du gouvernement.

À Singapour, la surveillance généralisée qui utilise de plus en plus la reconnaissance faciale affecte de manière disproportionnée les travailleurs migrants. Aux États-Unis, la première administration Trump a adopté un décret autorisant la reconnaissance faciale par IA aux frontières.

Même les législations censées protéger les droits peuvent créer des hiérarchies dans la protection : la loi sur l’IA de l’Union européenne (UE), entrée en vigueur en 2024, offre aux citoyens une certaine protection face aux systèmes de surveillance basés sur l’IA, mais pas aux personnes migrantes. Alors que l’Afghanistan et l’Iran utilisent la reconnaissance faciale pour réprimer les femmes, que la Hongrie l’instrumentalise contre les personnes LGBTQI+ et qu’Israël la déploie contre les Palestiniens, ce sont systématiquement les personnes ayant le moins d’accès à leurs droits qui en deviennent les cibles privilégiées.

Une réglementation plus stricte est nécessaire

La société civile tire la sonnette d’alarme. Ses enquêtes ont permis de révéler de nombreux cas d’utilisation secrète et de dérives policières. Certaines mobilisations ont même réussi à stopper le déploiement de la technologie. En 2022, un tribunal de Buenos Aires, en Argentine, a ordonné la suspension du système de reconnaissance faciale de la ville parce qu’il permettait à la police d’accéder à des millions de données biométriques sans mandat. Le système avait été utilisé contre des dirigeants d’organisations de droits humains, des syndicalistes et des journalistes. La décision du tribunal a été prise à la suite d’un recours déposé par une organisation de la société civile, l’Observatoire argentin du droit informatique.

De nombreuse organisations de la société civile montrent la voie à suivre. Parmi elles,  La Quadrature du Net en France, Roskomsvoboda en Russie et Big Brother Watch au Royaume-Uni. Aux États-Unis, le Surveillance Technology Oversight Project se concentre sur les méfaits des technologies de surveillance, y compris la reconnaissance faciale, notamment en milieu urbain comme à New York, tandis que le Immigrant Defense Project suit l’utilisation de la technologie contre les personnes migrantes. En Europe, Reclaim Your Face, une coalition d’organisations de la société civile, fait campagne contre la surveillance biométrique de masse, y compris la reconnaissance faciale, et plaide pour son interdiction dans les espaces publics. Au niveau mondial, Access Now appelle à l’interdiction totale de la reconnaissance faciale et des autres technologies de surveillance biométrique.

Il n’est pas trop tard. La reconnaissance faciale n’a pas encore atteint un point de non-retour où son utilisation deviendrait la norme mondiale. Mais le temps presse. Les campagnes de la société civile mettent principalement l’accent sur la nécessité d’adopter des lois et des règlements. Lors de l’adoption du Pacte international relatif aux droits civils et politiques (PIDCP) en 1966, et au moment de la rédaction de la plupart des constitutions nationales, la reconnaissance faciale relevait encore de la science-fiction. Les cadres juridiques n’ont tout simplement pas suivi le rythme des innovations technologiques.

Les efforts internationaux récents offrent au mieux un espoir mitigé. Grâce au travail de plaidoyer collectif, la loi sur l’IA de l’Union européenne introduit certaines protections, comme l’interdiction de la reconnaissance faciale en temps réel dans la majorité des cas. Mais elle échoue à protéger les droits des personnes migrantes et contient une clause d’exception pour la sécurité nationale, que les États les moins démocratiques de l’UE pourraient exploiter. La menace de la Hongrie d’utiliser la reconnaissance faciale contre les participants aux marches des fiertés pourrait bien constituer le premier cas d’école de cette loi.

Le Pacte Numérique Mondial, adopté l’an dernier lors du Sommet de l’avenir des Nations unies, reste quant à lui très vague. Il contient un engagement général à « établir des garanties appropriées » face aux impacts des technologies sur les droits humains, et mentionne une seule fois la surveillance, les États s’engageant à veiller à ce que les technologies de surveillance soient conformes au droit international. Cependant le texte ne mentionne pas spécifiquement la reconnaissance faciale.

Plus inquiétant encore, la Convention sur la cybercriminalité des Nations unies, adoptée en décembre dernier, menace d’aggraver l’impact de la reconnaissance faciale sur les droits humains. Ce traité, promu par des régimes répressifs, au premier rang desquels la Russie, a été conçu par des États qui utilisent déjà les lois sur la cybercriminalité comme prétexte à la répression. Malgré les efforts de la société civile et des États plus démocratiques pour atténuer les pires propositions initiales, le texte final ne contient toujours pas de garanties solides en matière de droits humains, y compris sur des principes essentiels comme la légalité et la non-discrimination. Le traité permet aux États de partager plus facilement des données biométriques sensibles, y compris celles recueillies via la reconnaissance faciale. Cela crée de nouveaux risques pour les militants et les dissidents : des opposants à de régimes autoritaires exilés pourraient être identifiés grâce à la reconnaissance faciale, puis extradés, simplement pour des opinions exprimées en ligne.

Parallèlement à la réglementation mondiale, les gouvernements nationaux doivent adopter d’urgence des lois pour encadrer l’usage de la reconnaissance faciale avant qu’il ne soit trop tard. Ils doivent respecter les droits à la vie privée, le droit de manifester et ils doivent mettre fin aux pratiques de surveillance discriminatoires. La société civile a lancé l’alerte; les autorités doivent maintenant agir avant que la reconnaissance faciale ne devienne la norme et que manifester ne devienne encore plus dangereux.

NOS APPELS À L’ACTION

  • Les États doivent adopter des lois interdisant l’utilisation des technologies de reconnaissance faciale et des autres technologies de surveillance biométrique à distance.
  • Les États doivent faire preuve de transparence et rendre des comptes concernant tout usage existant de la technologie de reconnaissance faciale, et consulter la société civile sur ses modalités d’application.
  • Les États doivent consulter un large éventail d’organisations de la société civile avant de prendre des mesures pour ratifier la Convention sur la cybercriminalité.

Pour des entretiens ou de plus amples informations, veuillez contacter research@civicus.org

Photo de couverture par Neal/Getty Images via Gallo Images