NUEVA YORK. La ya alarmante proliferación de imágenes de abusos sexuales a menores en Internet podría agravarse mucho más si no se hace algo para controlar las herramientas de inteligencia artificial que generan fotos falsas, advirtió el martes un organismo de vigilancia.

En un informe escrito, la Internet Watch Foundation, con sede en el Reino Unido, instó a gobiernos y proveedores de tecnología a actuar con rapidez antes de que una avalancha de imágenes de abusos sexuales a menores generadas por inteligencia artificial sobrecargue a los investigadores de las fuerzas de seguridad y amplíe enormemente el número de víctimas potenciales.

“No estamos hablando del daño que pueda causar”, afirma Dan Sexton, director de tecnología del grupo de vigilancia. “Esto está ocurriendo ahora mismo y hay que abordarlo ahora mismo”.

Relacionadas

En un caso sin precedentes en Corea del Sur, un hombre fue condenado en septiembre a dos años y medio de cárcel por utilizar inteligencia artificial para crear imágenes virtuales de 360º de abusos a menores, según el Tribunal de Distrito de Busan, en el sureste del país.

En algunos casos, los niños utilizan estas herramientas entre sí. En un colegio del suroeste de España, la policía ha estado investigando el presunto uso por parte de adolescentes de una aplicación de teléfono para hacer que sus compañeros de clase, completamente vestidos, aparezcan desnudos en las fotos.

El informe expone el lado oscuro de la carrera por crear sistemas de inteligencia artificial generativa que permitan a los usuarios describir con palabras lo que desean producir -desde correos electrónicos hasta obras de arte o vídeos novedosos- y que el sistema lo escupa.

Si no se detiene, la avalancha de imágenes falsas de abusos sexuales a menores podría menoscabar los esfuerzos de investigadores, que intentan rescatar a niños que resultan ser personajes virtuales. Los agresores también podrían utilizar las imágenes para captar y coaccionar a nuevas víctimas.

Sexton dijo que los analistas de IWF descubrieron rostros de niños famosos en línea, así como una “demanda masiva de creación de más imágenes de niños que ya han sufrido abusos, posiblemente hace años”.

“Están tomando contenido real existente y usándolo para crear nuevo contenido de estas víctimas”, dijo. “Eso es increíblemente chocante”.

Sexton dijo que su organización benéfica, que se centra en la lucha contra el abuso sexual infantil en línea, comenzó a recibir informes sobre imágenes abusivas generadas por IA a principios de este año. Esto condujo a una investigación de los foros de la llamada web oscura, una parte de Internet alojada en una red encriptada y accesible sólo a través de herramientas que proporcionan anonimato.

Lo que encontraron los analistas de IWF fueron depredadores que compartían consejos y se maravillaban de lo fácil que era convertir sus ordenadores domésticos en fábricas de generación de imágenes sexualmente explícitas de niños de todas las edades. Algunos también comercian e intentan lucrarse con esas imágenes que parecen cada vez más reales.

“Lo que estamos empezando a ver es esta explosión de contenidos”, afirmó Sexton.

Aunque el informe de la IWF pretende señalar un problema creciente más que ofrecer recetas, insta a los gobiernos a reforzar las leyes para facilitar la lucha contra los abusos generados por la IA. El informe se centró especialmente en la Unión Europea, donde se debate la adopción de medidas de vigilancia que podrían escanear automáticamente las aplicaciones de mensajería en busca de imágenes sospechosas de abusos sexuales a menores, aunque las fuerzas del orden no las conozcan de antemano.

Uno de los objetivos del grupo es evitar que las víctimas de abusos sexuales vuelvan a serlo mediante la redistribución de sus fotos.

El informe afirma que los proveedores de tecnología podrían hacer más para dificultar que los productos que han creado se utilicen de esta manera, aunque es complicado por el hecho de que algunas de las herramientas son difíciles de volver a meter en la botella.

El año pasado se presentó una serie de nuevos generadores de imágenes de inteligencia artificial que asombraron al público por su capacidad para crear imágenes caprichosas o fotorrealistas. Pero la mayoría de ellos no cuentan con el favor de los productores de material de abuso sexual infantil porque contienen mecanismos para bloquearlo.

Los proveedores de tecnología que disponen de modelos de IA cerrados, con pleno control sobre cómo se entrenan y utilizan -por ejemplo, el generador de imágenes DALL-E de OpenAI- han tenido más éxito a la hora de bloquear el uso indebido, dijo Sexton.

En cambio, la herramienta preferida por los productores de imágenes de abusos sexuales a menores es Stable Diffusion, de código abierto, desarrollada por la startup londinense Stability AI. Cuando Stable Diffusion irrumpió en escena en el verano de 2022, un subconjunto de usuarios aprendió rápidamente a utilizarla para generar desnudos y pornografía. Aunque la mayor parte de ese material mostraba a adultos, a menudo no era consentido, como cuando se utilizó para crear fotos de desnudos inspiradas en celebridades.

Posteriormente, Stability puso en marcha nuevos filtros que bloquean los contenidos inseguros e inapropiados, y la licencia de uso del software de Stability incluye la prohibición de usos ilegales.

En un comunicado hecho público el martes, la empresa afirmó que “prohíbe terminantemente cualquier uso indebido con fines ilegales o inmorales” en sus plataformas. “Apoyamos firmemente los esfuerzos de las fuerzas de seguridad contra quienes hagan un uso indebido de nuestros productos con fines ilegales o nefastos”, reza el comunicado.

Sin embargo, los usuarios pueden seguir accediendo a versiones anteriores de Stable Diffusion, que son “en su inmensa mayoría el software preferido... por quienes crean contenidos explícitos que afectan a menores”, afirma David Thiel, tecnólogo jefe del Observatorio de Internet de Stanford, otro grupo de vigilancia que estudia el problema.

El informe de la IWF reconoce la dificultad de tratar de criminalizar las herramientas de generación de imágenes por IA, incluso las “afinadas” para producir material abusivo.

“No se puede regular lo que la gente hace en sus ordenadores, en sus habitaciones. No es posible”, añadió Sexton. “Entonces, ¿cómo se llega al punto en el que no pueden usar software abiertamente disponible para crear contenido dañino como este?”.

La mayoría de las imágenes de abusos sexuales a menores generadas por IA se considerarían ilegales según las leyes vigentes en Estados Unidos, Reino Unido y otros países, pero aún está por ver si las fuerzas del orden disponen de las herramientas necesarias para combatirlas.

Un funcionario de la policía británica dijo que el informe muestra el impacto que ya han presenciado los agentes que trabajan para identificar a las víctimas.

“Estamos viendo cómo se capta a niños, cómo los agresores crean sus propias imágenes según sus propias especificaciones, cómo se producen imágenes de inteligencia artificial con fines comerciales, todo lo cual normaliza la violación y el abuso de niños reales”, declaró Ian Critchley, responsable de protección de menores del Consejo Nacional de Jefes de Policía.

El informe de la IWF se publica en vísperas de una reunión mundial sobre la seguridad de la inteligencia artificial que se celebrará la próxima semana, organizada por el gobierno británico y a la que asistirán personalidades como la vicepresidenta de Estados Unidos, Kamala Harris, y líderes tecnológicos.

“Aunque este informe pinta un panorama sombrío, soy optimista”, declaró Susie Hargreaves, Directora General de la IWF, en una declaración escrita. Afirmó que es importante comunicar las realidades del problema a “un público amplio porque necesitamos debatir sobre el lado más oscuro de esta increíble tecnología.”