Gracias a los progresos de la inteligencia artificial, los Estados están recurriendo cada vez más al reconocimiento facial para controlar el disenso. Si bien han sido Estados autoritarios los que han liderado la implementación de esta tecnología, también la están adoptando gobiernos democráticos, creando sistemas de vigilancia que frecuentemente operan en secreto y sin supervisión adecuada. Esto genera preocupaciones en materia de derechos humanos, particularmente respecto de la erosión del derecho a la intimidad, la persecución de grupos excluidos y el uso de la tecnología para identificar manifestantes y restringir la libertad de reunión. La sociedad civil trabaja para exponer estos abusos y exigir reformas legales a la altura del progreso tecnológico. Los gobiernos deben legislar para cerrar esta brecha.

Cuando una persona camina por las calles de una ciudad, entra a una tienda o toma transporte público, es muy probable que esté siendo observada por alguna de las más de mil millones de cámaras de vigilancia instaladas en todo el mundo. Esta tecnología de vigilancia está tomando una dirección cada vez más preocupante: muchos de los dispositivos ya no se limitan a grabar figuras anónimas, sino que ahora las identifican.

La tecnología de reconocimiento facial, que permite asociar imágenes a identidades, se utiliza al menos desde principios de la década del 2000, pero la inteligencia artificial (IA) ha acelerado su desarrollo al eliminar la necesidad de análisis humanos. Esto permite la identificación en tiempo real, lo que otorga a los Estados un poder sin precedentes para vigilar y controlar a la población.

Hungría, gobernada por el nacionalista autoritario Viktor Orbán, ofrece un ejemplo alarmante de cómo esta tecnología puede utilizarse para restringir las libertades cívicas – en particular, el derecho a la protesta – y profundizar la exclusión social. En marzo, el gobierno aprobó una ley que a efectos prácticos prohíbe los eventos del Orgullo LGBTQI+, bajo el pretexto falso y difamatorio de protección de la niñez. Las autoridades podrán utilizar el reconocimiento facial para hacer cumplir la ley, identificando a cualquiera que participe en un acto del Orgullo. Las sanciones previstas incluyen multas y, para las personas organizadoras, penas de hasta un año de prisión.

El gobierno húngaro ha transformado esta tecnología en un arma contra el disenso. El reconocimiento facial está contribuyendo a impulsar un proyecto político cada vez más divisivo y represivo, que sin duda marcará una campaña electoral sucia de cara a las elecciones del próximo año.

Pioneros autoritarios

Los Estados que han adoptado esta tecnología aseguran que mejora la seguridad, ya que permite enfrentar amenazas terroristas y localizar a personas buscadas por la justicia. Sin embargo, este argumento no resiste el escrutinio; la sociedad civil ha documentado un uso abusivo generalizado.

Ante todo, el uso generalizado del reconocimiento facial vulnera el derecho a la intimidad, ampliamente reconocido como un derecho humano fundamental. El Pacto Internacional de Derechos Civiles y Políticos (PIDCP), ratificado por casi todos los Estados, establece que nadie debe sufrir “injerencias arbitrarias o ilegales” en su vida privada. La mayoría de las constituciones nacionales –  186, según el último recuento – reconocen este derecho de una manera u otra, al igual que el Convenio Europeo de Derechos Humanos.

Los Estados insisten en que el uso del reconocimiento facial se realiza dentro de los límites legales y en conformidad con el PIDCP, otros tratados de derechos humanos y las constituciones nacionales. Sin embargo, algunos gobiernos claramente lo están empleando como parte de una ofensiva más amplia contra la sociedad civil. El patrón resulta evidente: muchos de los Estados que lideraron su implantación son profundamente autoritarios.

China, con su Estado de vigilancia, encabeza esta tendencia. Ningún otro país utiliza el reconocimiento facial de manera tan extensa ni despiadada. Esta tecnología es omnipresente: se encuentra en bancos, hoteles, terminales de transporte e incluso baños públicos. El Estado mantiene una vigilancia constante sobre lo que hace la población y con quién, con el objetivo de detectar el más mínimo signo de disidencia o desviación respecto de la estrecha identidad nacional y partidaria que busca imponer. El reconocimiento facial ocupa un lugar central dentro de la arquitectura de vigilancia china, y se encuentra vinculado a un sistema de crédito social en evolución que premia la conducta conforme y penaliza las actitudes consideradas antisociales, reforzando así la autocensura.

Una empresa china afirma haber logrado un 95% de precisión en el reconocimiento de rostros, incluso bajo mascarillas. China exporta su tecnología, al igual que muchas de sus industrias, para ampliar su influencia internacional. De este modo, globaliza su modelo de vigilancia y proporciona a otros Estados represivos las herramientas necesarias para aplastar el disenso. En Afganistán, una alianza improbable entre los talibanes y la tecnología de punta resultó en la instalación de unas 90.000 cámaras de fabricación china con capacidad de reconocimiento facial en la capital, Kabul. Estas cámaras refuerzan las políticas de apartheid de género del régimen talibán, que niega a las mujeres la visibilidad pública más elemental y reprime cualquier intento de protesta.

Irán siguió el mismo camino en 2022, como parte de su ofensiva contra las mujeres, cuando muchas protestaban por la negación sistemática de sus derechos. El gobierno anunció un plan para vincular el reconocimiento facial a su extensa base de datos biométricos, con el objetivo de controlar aún más el comportamiento público de las mujeres.

Rusia ocupa ahora el segundo lugar, después de China, en cuanto al uso de reconocimiento facial. Desde el inicio de su guerra a gran escala contra Ucrania, el gobierno amplió su uso de cinco a 62 regiones como parte de su esfuerzo por erradicar las críticas suscitadas por la invasión. Las autoridades utilizan la tecnología de forma preventiva: detienen a personas que participaron en protestas anteriores cuando puede que se estén desplazando hacia nuevas manifestaciones. Rusia también exporta su tecnología de vigilancia: según se ha informado, el gobierno de India incorporó tecnología rusa a un sistema de reconocimiento facial para rastrear personas en las estaciones de tren.

Israel es otro pionero, y utiliza ampliamente esta tecnología como parte de su aparato de control sobre la población palestina. Por su parte, Turquía ha recurrido al reconocimiento facial para silenciar voces democráticas: tras las recientes protestas antigubernamentales, las autoridades utilizaron esta tecnología para identificar manifestantes y restringir su movimiento dentro y fuera de Estambul.

Ampliación indebida

Resulta especialmente preocupante que ciertos Estados que se presentan como defensores de los derechos estén adoptando las mismas tecnologías represivas. En 2021 se reveló que la policía de Bruselas, Bélgica, había utilizado tecnología de reconocimiento facial potencialmente cientos de veces, y el gobierno inicialmente intentó negarlo. Ese mismo año, el organismo de control de la privacidad de Canadá concluyó que la policía había violado la legislación sobre privacidad al crear una base de datos de tres mil millones de imágenes extraídas de redes sociales mediante software de reconocimiento facial. Nuevamente, las autoridades trataron de negar haber accedido a este software.

En 2023, una organización de la sociedad civil checa reveló el uso secreto de software por parte de la policía para cruzar fotos con bases de datos de documentos de identidad y de viaje. El patrón es claro: la policía excedió sus competencias e intentó encubrir sus acciones.

Estos casos ilustran un fenómeno preocupante: puede que las autoridades introduzcan esta tecnología con fines aparentemente legítimos, pero una vez que la incorporan, tienden a ampliar su uso. Lo mismo sucede con la tecnología desplegada para eventos de gran visibilidad, como los Juegos Olímpicos: los Estados suelen seguir utilizándola una vez finalizado el espectáculo. Muchas veces las leyes carecen de salvaguardias adecuadas para impedir la extensión y el uso indebido de estas herramientas.

Tanto en los Estados democráticos como en los represivos, las autoridades están utilizando el reconocimiento facial para restringir la libertad de protesta. En el Reino Unido, la policía lo aplicó en tiempo real durante su respuesta desproporcionada a las manifestaciones pacíficas del 6 de mayo de 2023, día de la coronación del rey Carlos III. Los datos recopilados a través de la extensa red de cámaras del país se cruzan con “listas de vigilancia”, que incluyen datos de personas que no figuran en registros de búsqueda policial. A pesar de que en 2020 un tribunal falló en contra del uso de esta tecnología por parte de una fuerza policial del Reino Unido al considerar que vulneraba el derecho a la privacidad, su implementación continúa. En noviembre pasado, el gobierno publicó una licitación para un contrato de 26,7 millones de dólares destinado a dotar a la policía de más tecnología de reconocimiento facial.

Al igual que en muchos otros países, el Reino Unido carece de un marco jurídico específico que regule el uso del reconocimiento facial.  Sin embargo, cuenta con un conjunto de leyes recientemente adoptadas que facilitan la criminalización de manifestantes. Es probable que el reconocimiento facial sirva para reforzar estas restricciones, en especial contra protestas pacíficas en favor de la acción climática, la justicia racial y los derechos del pueblo palestino.

Discriminación algorítmica

El reconocimiento facial no trata a todas las personas por igual. Si bien la tecnología promete objetividad, reproduce sesgos existentes. Su margen de error resulta aún mayor en el caso de personas pertenecientes a grupos excluidos.

La experiencia de Robert Williams es un ejemplo ilustrativo. Williams, un hombre negro, fue detenido en 2020 en Detroit, Estados Unidos por un delito que no podría haber cometido. La acusación se basó únicamente en una identificación errónea realizada por un sistema de reconocimiento facial. Como ocurre con muchas tecnologías basadas en IA, el problema radicaba en el software, que no era capaz de distinguir bien entre personas con tonos de piel más oscuros. A esto se sumó el profundo racismo institucional presente en la actuación policial.

La tecnología utilizada por empresas privadas presenta patrones discriminatorios similares. La cadena de farmacias estadounidense Rite Aid utilizó sistemas de reconocimiento facial para identificar a posibles ladrones, pero éstos terminaron señalando erróneamente y desproporcionadamente a mujeres, personas negras, latinas y de origen asiático. Como resultado, muchas personas inocentes fueron humilladas y tratadas como sospechosas. Los estudios de sistemas comerciales de reconocimiento facial basados en inteligencia artificial indican que se han registrado tasas de error de hasta 34,4% entre las mujeres con piel oscura. Esta disparidad se debe a que los algoritmos se entrenan principalmente con imágenes de hombres blancos.

En muchos casos, el uso del reconocimiento facial con fines discriminatorios no es accidental. El Estado chino convirtió a un grupo étnico de 11 millones de personas en sujetos de prueba para la opresión tecnológicamente asistida. Aplicó esta herramienta por primera vez contra la población uigur, mayoritariamente musulmana y sistemáticamente perseguida, en la región noroccidental de Xinjiang. Fue el primer caso en el que un gobierno utilizó deliberadamente la inteligencia artificial para facilitar el perfilado racial.

El uso del reconocimiento facial contra comunidades excluidas se ha extendido a otros países. El gobierno indio ha implementado tecnologías de reconocimiento facial basadas en IA en la disputada región de Cachemira, donde restringe intensamente las libertades cívicas de la población mayoritariamente musulmana. También las utilizó durante las protestas de 2019 y 2020, que estallaron tras la modificación de la Ley de Ciudadanía, la cual excluyó a las personas musulmanas indocumentadas del acceso a la ciudadanía. En las regiones del sur de Tailandia, también de mayoría musulmana, el gobierno ha exigido la recopilación de datos faciales como parte del proceso obligatorio de registro de tarjetas SIM, en el marco de su estrategia de contrainsurgencia.

En Singapur, la vigilancia generalizada – cada vez más basada en reconocimiento facial – afecta de manera desproporcionada a trabajadores migrantes. En Estados Unidos, la primera administración Trump emitió una orden ejecutiva para autorizar el uso de reconocimiento facial mediante IA en las fronteras.

Incluso la legislación que supuestamente reconoce derechos puede establecer jerarquías de protección. La Ley de Inteligencia Artificial de la Unión Europea (UE), que entró en vigor en 2024, garantiza a la ciudadanía cierto nivel de protección frente a los sistemas de vigilancia basados en IA, pero deja fuera a las personas migrantes. Mientras Afganistán e Irán aplican el reconocimiento facial para reprimir a las mujeres, Hungría lo instrumentaliza contra las personas LGBTQI+ e Israel lo emplea contra la población palestina, quienes menos tienen acceso a sus derechos son quienes más sufren los abusos.

Necesidad de normativa más estricta

La sociedad civil ha lanzado una alerta urgente. Sus investigaciones han revelado numerosos casos de uso secreto y de extralimitaciones policiales. En algunos casos, se logró frenar su implementación. En 2022, un tribunal de la ciudad de Buenos Aires en Argentina ordenó la suspensión del sistema de reconocimiento facial de la ciudad debido a que permitía el acceso policial a millones de registros biométricos sin orden judicial. Este sistema había sido utilizado contra dirigentes de organizaciones de derechos humanos, sindicalistas y periodistas. La sentencia se dictó en respuesta a una demanda presentada por una organización de la sociedad civil: el Observatorio de Derecho Informático Argentino.

Muchas organizaciones de la sociedad civil están liderando el camino. Entre ellas se encuentran La Quadrature du Net en Francia, Roskomsvoboda en Rusia y Big Brother Watch en el Reino Unido. En Estados Unidos, el Proyecto de Monitoreo de la Tecnología de Vigilancia expone los efectos perjudiciales de las tecnologías de vigilancia, incluido el reconocimiento facial, especialmente en entornos urbanos como Nueva York. El Proyecto de Defensa de los Inmigrantes se dedica a monitorear su uso contra personas migrantes. En toda Europa, lo coalición de organizaciones de la sociedad civil Reclaim Your Face (“Reclama tu Rostro”) hace campaña contra la vigilancia biométrica masiva, incluido el reconocimiento facial, y aboga por su prohibición en espacios públicos. A escala mundial, Access Now encabeza la demanda de una prohibición total del reconocimiento facial y de otras tecnologías de vigilancia biométrica.

Todavía no es demasiado tarde. El despliegue del reconocimiento facial aún no ha alcanzado un punto de no retorno en el que su uso se haya normalizado a escala mundial. Pero el tiempo se agota. Una de las prioridades de la sociedad civil consiste en impulsar marcos legales y regulatorios. Cuando se adoptó el PIDCP en 1966 y se redactaron la mayoría de las constituciones nacionales, el reconocimiento facial era cosa de ciencia ficción. Las leyes y reglamentos no han evolucionado al ritmo de la tecnología.

Los recientes esfuerzos internacionales ofrecen, en el mejor de los casos, esperanzas dispares. Gracias a la incidencia concertada de la sociedad civil, la Ley de Inteligencia Artificial de la UE establece ciertas protecciones, como la prohibición de la mayoría de las formas de reconocimiento facial en tiempo real. Sin embargo, no solo no protege adecuadamente los derechos de las personas migrantes, sino que las disposiciones contra la vigilancia contienen una cláusula de excepción por razones de seguridad nacional. Esto deja espacio para que los Estados menos democráticos de la UE se aprovechen de los vacíos legales. La amenaza de Hungría de utilizar el reconocimiento facial contra participantes en marchas del Orgullo podría ser la primera prueba de fuego de la ley.

El Pacto Digital Global, adoptado el año pasado en la Cumbre del Futuro de las Naciones Unidas (ONU), dice bastante poco. Incluye un compromiso general de “establecer salvaguardias adecuadas” ante los impactos de la tecnología sobre los derechos humanos, y una única mención a la vigilancia, a través de la cual los Estados se comprometen a garantizar que las tecnologías de vigilancia cumplan con el derecho internacional. Sin embargo, el texto no hace ninguna referencia específica al reconocimiento facial.

Lo más preocupante es que el Convenio sobre la Ciberdelincuencia de la ONU, adoptado en diciembre pasado, podría agravar las consecuencias negativas del reconocimiento facial sobre los derechos humanos. Este tratado fue impulsado por Estados represivos – con Rusia a la cabeza – muchos de los cuales ya utilizan las leyes sobre ciberdelincuencia como herramienta de represión. Si bien la sociedad civil y los Estados más democráticos trabajaron para moderar las disposiciones más regresivas del borrador, el texto final aún carece de salvaguardias sólidas en materia de derechos humanos, incluso en principios básicos como la legalidad y la no discriminación. El tratado facilita el intercambio entre Estados de datos biométricos sensibles, incluidos los obtenidos mediante reconocimiento facial. Esto genera nuevos riesgos potenciales para activistas y disidentes: los críticos exiliados de regímenes autoritarios podrían ser deportados por expresar su disentimiento en línea, tras ser identificados mediante reconocimiento facial.

Más allá de la regulación internacional, los gobiernos nacionales deben aprobar con urgencia leyes que limiten el reconocimiento facial antes de que éste se vuelva incontrolable. Deben proteger los derechos a la intimidad y a la protesta y poner fin a las prácticas de vigilancia discriminatorias. La sociedad civil ya emitió la advertencia: ahora es responsabilidad de las autoridades actuar, antes de que el reconocimiento facial se convierta en la nueva normalidad y protestar se vuelva aún más peligroso.

NUESTROS LLAMADOS A LA ACCIÓN

  • Los Estados deben legislar para prohibir el uso de tecnologías de reconocimiento facial y otras tecnologías de vigilancia biométrica a distancia.
  • Los Estados deben ser transparentes y rendir cuentas sobre cualquier uso existente de la tecnología de reconocimiento facial y consultar a la sociedad civil sobre su aplicación.
  • Los Estados deben consultar con un amplio abanico de la sociedad civil antes de avanzar en la ratificación del Convenio sobre la Ciberdelincuencia.

Para entrevistas o más información, póngase en contacto con research@civicus.org

Foto de portada de Neal/Getty Images vía Gallo Images