Proliferación de imágenes de abuso infantil: un llamado urgente para controlar la inteligencia artificial

La creciente proliferación de imágenes de abuso sexual infantil en internet podría agravarse aún más debido a las herramientas de inteligencia artificial capaces de crear imágenes manipuladas. El martes, la Internet Watch Foundation (IWF), con sede en el Reino Unido, emitió una advertencia urgente, instando a los gobiernos y a las empresas de tecnología a tomar medidas antes de que la situación supere las capacidades de las agencias policiales al aumentar significativamente la cantidad de víctimas potenciales.

Dan Sexton, director de tecnología de la IWF, enfatizó que este es un problema que está ocurriendo en la actualidad y que debe abordarse de inmediato. En un caso sin precedentes en Corea del Sur en septiembre, un hombre fue condenado a dos años y medio de prisión por usar inteligencia artificial para crear 360 imágenes de abuso sexual infantil.

Esta problemática no se limita a los adultos; hay casos en los que los niños están utilizando esta tecnología contra otros niños. En España, la policía investiga un caso en el que adolescentes aparentemente utilizaron una aplicación de teléfono celular para crear imágenes en las que sus compañeros aparecían desnudos.

El informe destaca un aspecto oscuro de la inteligencia artificial, una tecnología que permite al usuario describir con palabras lo que desea producir, ya sea un correo electrónico, una novela, una obra de arte o un video, y el sistema lo elabora. Si no se aborda, la avalancha de «deepfakes» de abuso sexual infantil podría abrumar a las agencias policiales que intentan rescatar a niños convertidos en personajes digitales ficticios. Los abusadores también podrían usar las imágenes para seducir o coaccionar a nuevas víctimas.

La IWF ha observado que los abusadores están utilizando contenido real ya existente para crear nuevas imágenes de víctimas. Esto ha llevado a una creciente demanda de la creación de más imágenes de niños que ya han sido abusados, lo que es profundamente preocupante.

La organización comenzó a recibir informes de imágenes de abuso sexual hechas con inteligencia artificial a principios de este año, lo que condujo a investigaciones en la «dark web». Allí, los analistas descubrieron a abusadores compartiendo notas y maravillándose de lo fácil que era convertir sus computadoras personales en fábricas de imágenes sexualmente explícitas de niños de todas las edades. Algunos incluso intercambian estas imágenes, que parecen extremadamente reales, o intentan lucrarse con ellas.

Es imperativo abordar este problema de manera efectiva antes de que empeore y se convierta en un desafío aún mayor para la sociedad y las autoridades.