La ya alarmante proliferación de imágenes de abuso sexual infantil en internet podría empeorar si no se hace algo para controlar las herramientas de inteligencia artificial capaces de crear imágenes manipuladas, advirtió el martes un grupo experto en el tema.
Internet Watch Foundation, una agrupación basada en Reino Unido, exhortó a gobiernos y empresas tecnológicas a actuar rápidamente antes de que las imágenes de abuso sexual infantil sobrepasen las capacidades de las agencias policiales al aumentar significativamente la cantidad de víctimas potenciales.
“No estamos hablando del daño que esto podría causar”, declaró Dan Sexton, director de tecnología de la agrupación. “Esto es algo que está ocurriendo ahora mismo y debe encararse ahora mismo”.
En Corea del Sur en septiembre, en un caso sin precedente, un hombre fue sentenciado a dos años y medio de cárcel por usar la inteligencia artificial para crear 360 imágenes de abuso sexual infantil, según el Tribunal del Distrito Busan, en el sudeste del país.
Hay casos incluso en que niños están usando esa tecnología en contra de otros niños. En una escuela en el sudoeste de España, la policía ha estado investigando un caso en que al parecer unos adolescentes usaron una aplicación de teléfono celular para crear imágenes en que sus compañeros vestidos aparecen desnudos.
El reporte expone un lado oscuro de la inteligencia artificial, una tecnología que permite al usuario describir en palabras lo que quiere producir —sea un correo electrónico, una novela, una obra de arte o un video— para que el sistema lo elabore.
Si no es detenido, el aluvión de “deepfakes” de abuso sexual infantil podría abrumar a las agencias policiales que tratan de rescatar a niños convertidos en personajes digitales ficticios. Los abusadores también podrían usar las imágenes para seducir o coaccionar a nuevas víctimas.
Sexton señaló que analistas de la IWF han descubierto rostros de niños famosos online y “una demanda masiva por la creación de más imágenes de niños que ya han sido abusados, posiblemente hace años”.
“Están usando contenido real ya existente, y usándolo para crear nuevos contenidos de estas víctimas”, relató. “Esto es increíblemente asombroso”.
Sexton indicó que su organización, que combate en abuso sexual infantil en internet, empezó a recibir reportes de imágenes de abuso hechas con inteligencia artificial a comienzos de este año. Ello derivó en una investigación de fotos en la llamada “dark web”, una parte encriptada de la internet accesible solo mediante herramientas que proveen anonimato.
Los analistas de la IWF hallaron abusadores que compartían apuntes y se maravillaban de lo fácil que era convertir sus computadoras personales en fábricas de imágenes sexualmente explícitas de niños de todas las edades. Algunos incluso intercambian las imágenes —que lucen sumamente reales— o tratan de lucrar con ellas.