La regulación global de la IA se vuelve cada vez más urgente a medida que su uso se expande de manera acelerada. Las Naciones Unidas acaban de aprobar una resolución que establece dos nuevos mecanismos de gobernanza, y el reglamento de IA de la Unión Europea —el primer marco jurídico integral del mundo— entrará pronto en vigor. Sin embargo, ambos enfoques presentan importantes vacíos, especialmente en lo relativo a los usos militares y de vigilancia de la IA, que tienen un impacto creciente sobre los derechos humanos. Este panorama se complica porque Estados Unidos está socavando activamente la cooperación multilateral, mientras que las grandes empresas tecnológicas se alinean cada vez más con gobiernos autoritarios. En consecuencia, la sociedad civil corre el riesgo de quedar aislada en la promoción de los derechos humanos. Las luchas actuales en torno a la regulación definirán si la IA se pone al servicio de toda la humanidad o si se convierte en una herramienta para reforzar el poder de las élites.

Los algoritmos deciden quién vive y quién muere en Gaza. Sistemas de vigilancia basados en inteligencia artificial rastrean a periodistas en Serbia. En un desfile en Pekín, se exhiben armas autónomas como demostración de fuerza. No es ciencia ficción: es la realidad. La revolución de la inteligencia artificial avanza a una velocidad asombrosa y amenaza con transformar muchos aspectos de la vida cotidiana, con profundas repercusiones para los derechos humanos. La cuestión de cuáles deben ser las normas que regulen la inteligencia artificial —y quién las define— resulta cada vez más urgente.

La IA tiene implicaciones globales, por lo que requiere respuestas internacionales coordinadas. El 26 de agosto, la Asamblea General de las Naciones Unidas (ONU) dio un paso importante al aprobar una resolución que establece los primeros mecanismos internacionales diseñados específicamente para regularla. Pero las tensas negociaciones que rodearon la resolución dejaron claro que la comunidad internacional sigue sin encontrar la forma de abordar el problema de manera adecuada.

Preocupaciones en materia de derechos humanos

La sociedad civil advierte que la IA puede intensificar los ataques contra los derechos humanos y la erosión del espacio cívico. Estas inquietudes se han agudizado con la creciente alineación de los oligarcas tecnológicos con la administración Trump y otros gobiernos represivos.

Una de las principales amenazas para los derechos es la integración de la IA en sistemas de vigilancia, como las tecnologías de reconocimiento facial, cuyo alcance puede ampliarse para utilizarse incluso contra manifestantes. La IA también puede potenciar la difusión de desinformación – por ejemplo, mediante videos deepfake -, fomentando división, odio y polarización, con efectos especialmente dañinos durante las campañas electorales. Además, los sesgos de los algoritmos de IA pueden perpetuar la exclusión por motivos de género o raza.

En el ámbito militar, la IA se emplea en armas autónomas letales, conocidas como “robots asesinos”, capaces de identificar, seleccionar y matar objetivos humanos sin intervención humana. La campaña genocida de Israel en Gaza ha evidenciado las consecuencias del uso de la IA en la guerra y cómo la despersonalización de la violencia altera la noción de responsabilidad. Pese a los enormes riesgos, estas armas letales permanecen prácticamente sin regular. Desde 2014 se han celebrado reuniones en el marco de la Convención de la ONU sobre ciertas armas convencionales. Sin embargo, estas aún no han dado resultado porque el requisito de consenso en la toma de decisiones permite que las grandes potencias militares como Israel, Rusia y Estados Unidos bloqueen toda propuesta.

La contribución de la IA a la crisis climática

El impacto de la IA sobre el clima y el medio ambiente es otra preocupación importante. Interactuar con chatbots de IA como ChatGPT consume alrededor de 10 veces más electricidad que una búsqueda estándar en Google. La Agencia Internacional de la Energía prevé que el consumo eléctrico mundial de los centros de datos más que duplicará entre 2024 y 2030, hasta llegar a unos 945 teravatios-hora, una cifra comparable al consumo anual total de Japón. La expansión de la IA es el principal motor de este aumento.

La elevada demanda de electricidad para los centros de datos, impulsada por la expansión de la IA, fomenta la construcción de centrales eléctricas a gas y retrasa los planes de cierre de las de carbón, en un momento en que frenar el uso de combustibles fósiles resulta crucial para limitar el aumento de la temperatura global. Según se informa, las emisiones de Microsoft han crecido un 29% desde 2020 debido a la construcción de centros de datos para sostener las cargas de trabajo de la IA. Google, por su parte, eliminó recientemente de su sitio web el compromiso de alcanzar emisiones netas cero para 2030; debido a la IA, sus emisiones aumentaron un 48% entre 2019 y 2023.

Los centros de datos también consumen grandes volúmenes de agua para sus sistemas de refrigeración. ChatGPT, por ejemplo, utiliza aproximadamente medio litro de agua dulce por cada cinco a 50 consultas. El consumo mundial de agua de Microsoft subió un 34% entre 2021 y 2022, mientras que el de Google creció un 20% en el mismo periodo. Los investigadores atribuyen la mayor parte de este incremento al avance de la IA.

Modelos de gobernanza en competencia

La reciente resolución de la ONU crea dos mecanismos de gobernanza acordados en el Pacto Digital Global durante la Cumbre del Futuro de septiembre de 2024: un Panel Científico Internacional Independiente sobre IA y un Diálogo Global sobre Gobernanza de la IA. El Panel Científico, integrado por 40 miembros, publicará evaluaciones anuales basadas en datos sobre los riesgos, las oportunidades y el impacto de la IA. El Diálogo Global servirá como plataforma para que los Estados y otros actores debatan la cooperación internacional y compartan buenas prácticas.

La resolución es fruto de un compromiso cuidadosamente negociado entre visiones divergentes de la gobernanza de la IA que reflejan divisiones geopolíticas.

China, a través de su Iniciativa Global de Gobernanza de la IA, defiende un multilateralismo dirigido por el Estado que no da cabida a la sociedad civil, al tiempo que se posiciona como líder del sur global con un énfasis en el desarrollo y el fortalecimiento de capacidades. Enmarca su propuesta como respuesta al dominio tecnológico de Occidente e insiste en que el desarrollo de la IA debe servir a objetivos económicos y sociales más amplios. Los Estados del Grupo de los 77 —un bloque formado en su mayoría por países del sur global— reclaman que la IA se implemente de forma responsable e inclusiva, y que se priorice su potencial para mejorar las economías digitales, la educación, la salud y los servicios públicos. Exigen plena participación en la definición de los marcos de gobernanza de la IA.

Mientras tanto, Estados Unidos, bajo la presidencia de Trump, busca preservar su dominio con una postura de “América primero” que privilegia las restricciones a la exportación y las “redes de confianza” con aliados en lugar de la cooperación multilateral. Esta postura refleja el tecnonacionalismo, que trata la IA como una herramienta de influencia económica y geopolítica y deja de lado los acuerdos multilaterales en favor de arreglos bilaterales. Entre las decisiones recientes que refuerzan este giro —y dificultan aún más la cooperación mundial— figuran un arancel de 100% a los chips de IA importados y la compra de una participación de 10% en el gigante tecnológico Intel.

La Unión Europea (UE) adopta un enfoque distinto: busca una regulación integral basada en el riesgo mediante marcos jurídicos, al tiempo que otorga prioridad a la independencia del Panel Científico y a la importancia del diálogo con múltiples partes interesadas, con el fin de equilibrar la innovación con la protección de los derechos humanos.

Si bien la resolución de la ONU no es vinculante, abre la puerta a debates que podrían cristalizar en normas y reglas obligatorias. El desafío consiste en traducir los logros diplomáticos en protecciones tangibles para los derechos humanos y la seguridad mundial en el marco de un sistema internacional cada vez más fragmentado.

El enfoque de la UE

A diferencia de la gobernanza flexible de la ONU, la Unión Europea ha adoptado una vía más prescriptiva con su Reglamento de IA, que entrará en vigor el 2 de agosto de 2026. Presentado como el primer marco jurídico integral en la materia, establece normas basadas en niveles de riesgo, con obligaciones progresivamente más estrictas a medida que este aumenta. Estas medidas buscan garantizar la seguridad, los derechos fundamentales y una IA centrada en la persona, al tiempo que fomentan la inversión y la innovación.

Este enfoque en el nivel de riesgo prohíbe directamente los sistemas de IA que representan un riesgo “inaceptable”, mientras que somete a los considerados de “riesgo limitado” a requisitos de transparencia. Los actuales modelos de IA generativa se encuadran en esta última categoría, lo que exige garantías básicas como informar a los usuarios de que están interactuando con IA y evitar la generación de contenidos ilegales.

El Reglamento de IA es un paso en la dirección correcta para abordar una tecnología que hoy solo responde ante los grandes magnates tecnológicos de Silicon Valley. Sin embargo, la sociedad civil ha alertado sobre graves deficiencias que debilitan sus salvaguardias de derechos humanos. Aunque la propuesta inicial contemplaba una prohibición total del reconocimiento facial en tiempo real, la versión final del reglamento permite un uso limitado con ciertas garantías que, según las organizaciones de derechos humanos, resultan insuficientes. El reglamento prohíbe las tecnologías de reconocimiento de emociones en la educación y los lugares de trabajo, pero permite su uso por parte de las fuerzas del orden y en materia de migración, una excepción especialmente preocupante dada la presencia de sesgos raciales en los sistemas existentes. La coalición Protect Not Surveil (“proteger, no vigilar”) ha advertido que los migrantes y las minorías raciales de Europa se han convertido en campo de pruebas para las herramientas de vigilancia y monitoreo basadas en IA.

El reglamento también exime a los sistemas de IA utilizados con fines de seguridad nacional y, de forma crítica, a los drones autónomos empleados en contextos de guerra. Esta exclusión resulta especialmente problemática, considerando el doble papel de la UE como reguladora en materia de IA e importante proveedora de armas, incluso a Israel. La hipocresía internacional quedó en evidencia recientemente cuando Israel firmó el Convenio del Consejo de Europa sobre IA y Derechos Humanos mientras usaba la IA para vigilancia masiva y asesinatos en Gaza.

La lucha que nos espera

El futuro de la regulación tecnológica se acerca a un momento decisivo, ya que pronto vencerán los mandatos de espacios de diálogo de larga data, como el Grupo de Trabajo de Composición Abierta sobre la seguridad de las TIC y su uso y el Foro para la Gobernanza de Internet. Estas plataformas han impulsado un debate inclusivo al reunir a gobiernos, sector privado, sociedad civil y expertos en tecnologías de la información. Su posible desaparición ha encendido un debate urgente sobre el rumbo de la gobernanza tecnológica. La implementación del Reglamento de IA será un hito para la regulación mundial, pero hacen falta medidas de fondo que refuercen sus cimientos.

La naturaleza global de la IA exige soluciones globales, pero lo que existe hasta ahora es un mosaico de normas regionales, resoluciones internacionales no vinculantes y una autorregulación laxa de la industria, en medio de fricciones geopolíticas y visiones contrapuestas sobre la gobernanza tecnológica. Los intereses nacionales prevalecen sobre las necesidades colectivas de la humanidad y los derechos humanos universales. Mientras tanto, las empresas que controlan los sistemas de IA acumulan un poder enorme. Cualquier intento de regulación que no confronte ese poder está condenado al fracaso.

Se necesitan actores que, dentro del sistema internacional, impulsen una regulación sólida y centrada en los derechos humanos. El ritmo de desarrollo de la IA no deja margen para la demora.

NUESTROS LLAMADOS A LA ACCIÓN

  • Las Naciones Unidas deben reforzar los mecanismos de gobernanza de la IA y negociar urgentemente un tratado que prohíba los sistemas de armas autónomas letales.
  • La Unión Europea debe colmar las lagunas jurídicas del Reglamento de IA en materia de reconocimiento facial, usos policiales, controles migratorios y aplicaciones militares.
  • Los gobiernos deberían crear mecanismos de coordinación que contrarresten el control de los gigantes tecnológicos sobre el desarrollo y la implementación de la IA.

Para entrevistas o más información, póngase en contacto con research@civicus.org

Foto de portada de Suriya Phosri/Getty Images vía Gallo Images