La ya alarmante proliferación de imágenes de abuso sexual infantil en Internet podría empeorar mucho si no se hace algo para controlar las herramientas de inteligencia artificial que generan fotografías ultrafalsas, advirtió el martes una agencia de vigilancia.
Internet Watch Foundation, presentó un informe donde insta a los gobiernos y proveedores de tecnología a actuar rápidamente antes de que una avalancha de imágenes de abuso sexual infantil generadas por IA abrume a los investigadores encargados de hacer cumplir la ley y amplíe enormemente el grupo de víctimas potenciales.
Dan Sexton, director de tecnología del grupo de vigilancia mencióno que no se esta hablando del daño que podría causar, si no de lo que esta ocurriendo ahora mismo y es necesario abordarlo inmediatamente.
El informe expone un lado oscuro de la carrera por construir sistemas de inteligencia artificial generativa que permitan a los usuarios describir con palabras lo que quieren producir (desde correos electrónicos hasta obras de arte o videos novedosos) y hacer que el sistema lo escupe.
Si no se detiene, la avalancha de imágenes falsas de abuso sexual infantil podría atascar a los investigadores que intentan rescatar a niños que resultan ser personajes virtuales. Los perpetradores también podrían utilizar las imágenes para preparar y coaccionar a nuevas víctimas.
Sexton dijo que los analistas de la IWF descubrieron rostros de niños famosos en línea, así como una “demanda masiva para la creación de más imágenes de niños que ya han sido abusados, posiblemente hace años”.
Afirmó Sexton que su organización benéfica, que se centra en combatir el abuso sexual infantil en línea, comenzó a recibir informes sobre imágenes abusivas generadas por IA a principios de este año. Eso llevó a una investigación sobre los foros de la llamada web oscura, una parte de Internet alojada dentro de una red cifrada y accesible sólo a través de herramientas que brindan anonimato.
Lo que los analistas de la IWF encontraron fueron abusadores que compartían consejos y se maravillaban de lo fácil que era convertir las computadoras de sus casas en fábricas para generar imágenes sexualmente explícitas de niños de todas las edades. Algunos también comercializan e intentan sacar provecho de este tipo de imágenes que parecen cada vez más realistas.
Si bien el informe de la IWF pretende señalar un problema creciente más que ofrecer recetas, insta a los gobiernos a fortalecer las leyes para facilitar la lucha contra los abusos generados por la IA. Se dirige particularmente a la Unión Europea, donde hay un debate sobre las medidas de vigilancia que podrían escanear automáticamente las aplicaciones de mensajería en busca de imágenes sospechosas de abuso sexual infantil, incluso si las autoridades no conocen previamente las imágenes.
Un gran objetivo del trabajo del grupo es evitar que víctimas anteriores de abuso sexual vuelvan a ser abusadas mediante la redistribución de sus fotografías.
El informe dice que los proveedores de tecnología podrían hacer más para dificultar el uso de los productos que han creado de esta manera, aunque es complicado por el hecho de que algunas de las herramientas son difíciles de volver a guardar en la botella.