La ya alarmante proliferación de imágenes de abuso sexual infantil en internet podría empeorar mucho si no se toman medidas para controlar las herramientas de inteligencia artificial que generan fotos falsas, advirtió una agencia de vigilancia el martes.
En un informe escrito, la Fundación de Vigilancia de Internet con sede en el Reino Unido insta a los gobiernos y proveedores de tecnología a actuar rápidamente antes de que una inundación de imágenes generadas por inteligencia artificial de abuso sexual infantil abrumen a los investigadores encargados de hacer cumplir la ley y amplíen enormemente el grupo de posibles víctimas.
"No estamos hablando de los posibles daños", dijo Dan Sexton, el director de tecnología del grupo de vigilancia. "Esto está sucediendo ahora mismo y debe abordarse de inmediato".
En un caso sin precedentes en Corea del Sur, un hombre fue condenado en septiembre a 2 años y medio de prisión por usar inteligencia artificial para crear imágenes de abuso infantil virtuales en 360 grados, según el Tribunal del Distrito de Busan en el sureste del país.
En algunos casos, los niños usan estas herramientas entre sí. En una escuela del suroeste de España, la policía ha estado investigando el presunto uso de una aplicación de teléfono por parte de los adolescentes para hacer que sus compañeros de escuela vestidos aparezcan desnudos en fotos.
El informe expone un lado oscuro de la carrera por construir sistemas de inteligencia artificial generativa que permitan a los usuarios describir con palabras lo que desean producir, desde correos electrónicos hasta obras de arte o videos, y hacer que el sistema lo genere.
Si no se detiene, la inundación de imágenes de abuso sexual infantil falsas creadas por inteligencia artificial podría dificultar a los investigadores el rescate de niños que resulten ser personajes virtuales. Los perpetradores también podrían usar las imágenes para seducir y coaccionar a nuevas víctimas.
Sexton dijo que los analistas de la fundación IWF descubrieron caras de niños famosos en línea, así como una "enorme demanda de la creación de más imágenes de niños que ya han sido abusados, posiblemente hace años".
"Están tomando contenido real existente y usándolo para crear nuevo contenido de estas víctimas", dijo. "Eso es simplemente increíblemente impactante".
Sexton dijo que su organización benéfica, centrada en combatir el abuso sexual infantil en línea, comenzó a recibir informes sobre imágenes generadas por IA abusivas a principios de este año. Eso condujo a una investigación en los foros de la llamada "dark web", una parte de internet alojada en una red encriptada y accesible solo a través de herramientas que proporcionan anonimato.
Lo que encontraron los analistas de la IWF fueron abusadores compartiendo consejos y maravillándose de lo fácil que era convertir sus computadoras domésticas en fábricas para generar imágenes sexualmente explícitas de niños de todas las edades. Algunos también están intercambiando e intentando obtener ganancias de imágenes cada vez más realistas.
"Lo que estamos empezando a ver es esta explosión de contenido", dijo Sexton.
Si bien el informe de la IWF tiene como objetivo alertar sobre un problema en crecimiento más que ofrecer soluciones, insta a los gobiernos a fortalecer las leyes para facilitar la lucha contra el abuso generado por IA. Se dirige especialmente a la Unión Europea, donde hay un debate sobre medidas de vigilancia que podrían escanear automáticamente aplicaciones de mensajería en busca de imágenes sospechosas de abuso sexual infantil, incluso si las imágenes no son conocidas previamente por las autoridades.
Uno de los principales enfoques del trabajo del grupo es evitar que las víctimas de abuso sexual anteriores sean abusadas nuevamente mediante la redistribución de sus fotos.
El informe dice que los proveedores de tecnología podrían hacer más para dificultar el uso indebido de los productos que han desarrollado, aunque es complicado por el hecho de que algunas de las herramientas son difíciles de controlar.
El año pasado se introdujo una serie de nuevos generadores de imágenes de IA que sorprendieron al público con su capacidad para crear imágenes caprichosas o fotorealistas bajo demanda. Pero la mayoría de ellos no son favoritos de los productores de material de abuso sexual infantil porque contienen mecanismos para bloquearlo.
Los proveedores de tecnología que tienen modelos de IA cerrados, con control total sobre cómo se entrenan y utilizan, como el generador de imágenes DALL-E de OpenAI, parecen haber tenido más éxito en bloquear el mal uso, según Sexton.
En contraste, una herramienta favorecida por los productores de material de abuso sexual infantil es el Stable Diffusion de código abierto, desarrollado por la startup con sede en Londres Stability AI. Cuando el Stable Diffusion irrumpió en escena en el verano de 2022, un grupo de usuarios rápidamente aprendió cómo usarlo para generar desnudos y pornografía. Si bien gran parte de ese material mostraba a adultos, a menudo era no consensuado, como cuando se usaba para crear imágenes de desnudos inspiradas en celebridades.
Más tarde, Stability implementó nuevos filtros que bloquean contenido inseguro e inapropiado, y una licencia para usar el software de Stability también incluye una prohibición de usos ilegales.
En un comunicado emitido el martes, la compañía dijo que "prohíbe estrictamente cualquier uso indebido para fines ilegales o inmorales" en todas sus plataformas. "Apoyamos firmemente los esfuerzos de las fuerzas del orden contra aquellos que utilizan nuestros productos con fines ilegales o malignos", dice el comunicado.
Sin embargo, los usuarios aún pueden acceder a las versiones antiguas de Stable Diffusion sin filtrar, que "son abrumadoramente el software de elección... para las personas que crean contenido explícito que involucra a niños", según David Thiel, tecnólogo principal del Stanford Internet Observatory, otro grupo de vigilancia que estudia el problema.
"No se puede regular lo que las personas hacen en sus computadoras, en sus habitaciones. No es posible", agregó Sexton. "Entonces, ¿cómo llegamos al punto en el que no pueden usar software disponible abiertamente para crear contenido dañino como este?"
La mayoría de las imágenes generadas por IA de abuso sexual infantil serían consideradas ilegales según las leyes existentes en Estados Unidos, Reino Unido y otros lugares, pero aún está por verse si las fuerzas del orden tienen las herramientas para combatirlas.
El informe de la IWF se publica antes de una reunión mundial sobre seguridad de la IA la próxima semana organizada por el gobierno británico, que contará con la participación de destacados asistentes, como la vicepresidenta de Estados Unidos, Kamala Harris, y líderes tecnológicos.
"Aunque este informe pinta un panorama sombrío, soy optimista", dijo Susie Hargreaves, CEO de la IWF, en un comunicado escrito. Dijo que es importante comunicar las realidades del problema a "un amplio público porque necesitamos tener discusiones sobre el lado más oscuro de esta increíble tecnología".