Las fuerzas del orden se preparan para la avalancha de imágenes de abuso sexual infantil generadas por IA

Las fuerzas del orden se preparan para la avalancha de imágenes de abuso sexual infantil generadas por IA

Los funcionarios encargados de hacer cumplir la ley se están preparando para una explosión de material generado por inteligencia artificial que representa oficialmente a niños siendo explotados sexualmente, profundizando el desafío de identificar a las víctimas y combatir ese abuso.

Las preocupaciones surgen cuando Meta, un recurso principal para las autoridades a la hora de señalar contenido sexual explícito, ha dificultado el seguimiento de los delincuentes al cifrar su servicio de mensajería. La complicación subraya el complicado equilibrio que deben lograr las empresas de tecnología al sopesar los derechos de privacidad frente a la seguridad de los niños. Y la perspectiva de procesar ese tipo de delito plantea cuestiones espinosas sobre si esas imágenes son ilegales y qué tipo de recurso puede haber para las víctimas.

Los legisladores del Congreso se han centrado en algunas de esas preocupaciones para presionar por salvaguardias más estrictas, incluso convocando a ejecutivos de tecnología el miércoles para testificar sobre sus protecciones para los niños. Las imágenes falsas y sexualmente explícitas de Taylor Swift, probablemente generadas por IA, que inundaron las redes sociales la semana pasada solo resaltaron los riesgos de dicha tecnología.

«La creación de imágenes sexualmente explícitas de niños mediante el uso de inteligencia artificial es una forma particularmente atroz de explotación en línea», dijo Steve Grocki, jefe de la sección de explotación y obscenidad infantil del Departamento de Justicia.

La facilidad de la tecnología de inteligencia artificial significa que los perpetradores pueden crear decenas de imágenes de niños siendo explotados o abusados ​​sexualmente con solo hacer clic en un botón.

Simplemente ingresando un mensaje se obtienen imágenes, videos y texto realistas en minutos, generando nuevas imágenes de niños reales así como imágenes explícitas de niños que en realidad no existen. Estos pueden incluir material generado por IA sobre bebés y niños pequeños violados; Niños pequeños famosos sufrieron abusos sexuales, según un estudio reciente. estudiar desde gran bretaña; y fotografías de clase de rutina, adaptadas para que todos los niños estén desnudos.

«El horror que ahora tenemos ante nosotros es que alguien puede tomar una imagen de un niño de las redes sociales, de la página de una escuela secundaria o de un evento deportivo, y puede participar en lo que algunos han llamado ‘nudificación'», dijo el Dr. Michael Bourke. , ex psicólogo jefe del Servicio de Alguaciles de EE. UU. que ha trabajado en delitos sexuales que involucran a niños durante décadas. El uso de IA para alterar fotografías de esta manera se está volviendo más común, afirmó.

Las imágenes son indistinguibles de las reales, dicen los expertos, lo que hace más difícil identificar una víctima actual de una falsa. «Las investigaciones son mucho más desafiantes», dijo el teniente Robin Richards, comandante del grupo de trabajo sobre crímenes contra niños en Internet del Departamento de Policía de Los Ángeles. «Se necesita tiempo para investigar, y luego, una vez que estamos sumergidos hasta las rodillas en la investigación, es IA, y luego, ¿qué hacemos con esto en el futuro?»

Los organismos encargados de hacer cumplir la ley, que carecen de personal y fondos suficientes, ya han luchado por mantener el ritmo a medida que los rápidos avances tecnológicos han permitido que las imágenes de abuso sexual infantil florezcan a un ritmo sorprendente. Las imágenes y videos, habilitados por las cámaras de los teléfonos inteligentes, la web oscura, las redes sociales y las aplicaciones de mensajería, rebotan en Internet.

Sólo se investiga una fracción del material que se sabe que es delictivo. John Pizzuro, director de Raven, una organización sin fines de lucro que trabaja con legislaturas y empresas para luchar contra la explotación sexual de niños, dijo que durante un período reciente de 90 días, los funcionarios encargados de hacer cumplir la ley habían vinculado casi 100.000 direcciones IP en todo el país con abuso sexual infantil. material. (Una dirección IP es una secuencia única de números asignados a cada computadora o teléfono inteligente conectado a Internet). De ellos, menos de 700 estaban siendo investigados, dijo, debido a una falta crónica de fondos dedicados a combatir estos crímenes.

Aunque una ley federal de 2008 autorizó 60 millones de dólares para ayudar a los funcionarios encargados de hacer cumplir la ley estatales y locales en la investigación y procesamiento de tales delitos, el Congreso nunca ha asignado tanto en un año determinado, dijo Pizzuro, un ex comandante que supervisó casos de explotación infantil en línea en Nueva York. Suéter.

El uso de inteligencia artificial ha complicado otros aspectos del seguimiento del abuso sexual infantil. Por lo general, al material conocido se le asigna aleatoriamente una cadena de números que equivale a una huella digital, que se utiliza para detectar y eliminar contenido ilícito. Si se modifican las imágenes y vídeos conocidos, el material parece nuevo y ya no está asociado a la huella digital.

A esos desafíos se suma el hecho de que, si bien la ley exige que las empresas de tecnología informen sobre material ilegal si se descubre, no les exige que lo busquen activamente.

El enfoque de las empresas de tecnología puede variar. Meta ha sido el mejor socio de las autoridades a la hora de denunciar material sexualmente explícito que involucre a niños.

En 2022, de un total de 32 millones de propinas Al Centro Nacional para Niños Desaparecidos y Explotados, el centro de intercambio de información designado a nivel federal para material de abuso sexual infantil, Meta remitió alrededor de 21 millones.

Pero la compañía está cifrando su plataforma de mensajería para competir con otros servicios seguros que protegen el contenido de los usuarios, esencialmente apagando las luces a los investigadores.

Jennifer Dunton, asesora legal de Raven, advirtió sobre las repercusiones y dijo que la decisión podría limitar drásticamente la cantidad de delitos que las autoridades pueden rastrear. “Ahora tienes imágenes que nadie ha visto nunca y ni siquiera las estamos buscando”, dijo.

Tom Tugendhat, ministro de seguridad de Gran Bretaña, dijo que la medida empoderaría a los depredadores de niños en todo el mundo.

«La decisión de Meta de implementar cifrado de extremo a extremo sin características de seguridad sólidas hace que estas imágenes estén disponibles para millones de personas sin temor a ser descubiertas», dijo Tugendhat en un comunicado.

El gigante de las redes sociales dijo que continuaría brindando pistas sobre material de abuso sexual infantil a las autoridades. «Estamos centrados en encontrar y denunciar este contenido, mientras trabajamos para prevenir el abuso en primer lugar», dijo Alex Dziedzan, portavoz de Meta.

Aunque solo hay unos pocos casos actuales que involucran material de abuso sexual infantil generado por IA, se espera que ese número crezca exponencialmente y resalte preguntas novedosas y complejas sobre si las leyes federales y estatales existentes son adecuadas para procesar estos delitos.

Por un lado, está la cuestión de cómo tratar los materiales enteramente generados por IA.

En 2002, la Corte Suprema anuló una prohibición federal de imágenes de abuso sexual infantil generadas por computadora, al considerar que la ley estaba redactada de manera tan amplia que potencialmente también podría limitar las obras políticas y artísticas. Alan Wilson, el fiscal general de Carolina del Sur que encabezó una carta al Congreso instando a actuar con rapidez, dijo en una entrevista que anticipaba que el fallo sería puesto a prueba, a medida que proliferaran los casos de material de abuso sexual infantil generado por IA.

Se pueden utilizar varias leyes federales, incluido un estatuto de obscenidad, para procesar casos que involucren materiales de abuso sexual infantil en línea. Algunos estados están estudiando cómo penalizar dicho contenido generado por IA, incluida la forma de dar cuenta de los menores que producen dichas imágenes y vídeos.

Para una adolescente, estudiante de secundaria en Westfield, Nueva Jersey, la falta de repercusiones legales por crear y compartir este tipo de imágenes generadas por IA es particularmente grave.

En octubre, la niña, que entonces tenía 14 años, descubrió que estaba entre un grupo de chicas de su clase. cuya imagen había sido manipulada y la despojaron de su ropa en lo que equivalía a una imagen de ella desnuda que ella no había dado su consentimiento, que luego circuló en chats en línea. Todavía tiene que ver la imagen en sí. El incidente aún está bajo investigación, aunque al menos un estudiante fue suspendido brevemente.

“Le puede pasar a cualquiera”, dijo su madre, Dorota Mani, en una entrevista reciente.

Mani dijo que ella y su hija estaban trabajando con legisladores estatales y federales para redactar nuevas leyes que harían ilegales esas imágenes de desnudos falsos. Este mes, la adolescente habló en Washington sobre su experiencia y pidió al Congreso que aprobara un proyecto de ley que permitiría recurrir a las personas cuyas imágenes fueran alteradas sin su consentimiento.

Su hija, dijo Mani, había pasado de estar molesta a estar enojada y luego empoderada.