Resumen
- Investigaciones de UNICEF estiman que 1.2 millones de niños tuvieron sus imágenes manipuladas en deepfakes sexuales el año pasado en 11 países analizados.
- Las autoridades han intensificado acciones contra plataformas de IA, incluyendo investigaciones, prohibiciones e indagaciones penales relacionadas con la generación de contenido ilegal.
- La agencia pidió leyes más estrictas y reglas de “seguridad por diseño” para los desarrolladores de IA, que incluyan evaluaciones obligatorias sobre los derechos de los niños.
UNICEF lanzó un llamado urgente el miércoles para que los gobiernos criminalicen el material de abuso sexual infantil generado por IA, señalando evidencia alarmante de que al menos 1.2 millones de niños en todo el mundo tuvieron sus imágenes manipuladas en deepfakes sexualmente explícitos durante el último año.
Las cifras, reveladas en el proyecto de investigación «Disrupting Harm Phase 2», liderado por la Oficina de Estrategia y Evidencia Innocenti de UNICEF, ECPAT Internacional e INTERPOL, indican que en algunos países, esta cifra representa uno de cada 25 niños, equivalente a un niño en una clase típica, según un comunicado emitido el miércoles.
La investigación, basada en una encuesta representativa a nivel nacional que abarcó aproximadamente 11,000 niños en 11 países, destaca cómo los delincuentes pueden crear imágenes sexuales realistas de un niño sin su involucramiento o conocimiento.
En algunos de los países estudiados, hasta dos tercios de los encuestados expresaron su preocupación de que la IA podría ser utilizada para crear imágenes o videos sexuales falsos de ellos, aunque los niveles de preocupación varían considerablemente entre los países, de acuerdo con los datos.
“Debemos ser claros. Las imágenes sexualizadas de niños generadas o manipuladas usando herramientas de IA son material de abuso sexual infantil (CSAM),” afirmó UNICEF. “El abuso por deepfake es abuso, y no hay nada falso en el daño que causa”.
Este llamado adquiere mayor urgencia tras la reciente incursión de las autoridades francesas en las oficinas de X en París, como parte de una investigación criminal sobre supuesta pornografía infantil relacionada con el chatbot de IA Grok, con fiscales que han citado a Elon Musk y a varios ejecutivos para interrogatorios.
Un informe del Centro para Combatir el Odio Digital, publicado el mes pasado, estimó que Grok produjo 23,338 imágenes sexualizadas de niños en un período de 11 días entre el 29 de diciembre y el 9 de enero.
El informe que acompaña el comunicado señala que estos desarrollos representan “una escalada profunda de los riesgos que enfrentan los niños en el entorno digital”, donde un niño puede ver violado su derecho a la protección “sin siquiera haber enviado un mensaje o tener conocimiento de que ha ocurrido”.
La Fundación de Vigilancia de Internet del Reino Unido reportó casi 14,000 imágenes sospechosas generadas por IA en un solo foro de la dark web en un mes, aproximadamente un tercio confirmadas como criminales, mientras que las autoridades surcoreanas informaron un aumento diez veces mayor de delitos sexuales relacionados con IA y deepfake entre 2022 y 2024, siendo la mayoría de los sospechosos adolescentes.
La organización hizo un llamado urgente a todos los gobiernos para que amplíen las definiciones de material de abuso sexual infantil para incluir contenido generado por IA y criminalicen su creación, adquisición, posesión y distribución.
UNICEF también demandó que los desarrolladores de IA implementen enfoques de seguridad por diseño y que las empresas digitales prevengan la circulación de dicho material.
El informe solicita a los estados que exijan a las empresas realizar la debida diligencia en derechos de los niños, particularmente evaluaciones de impacto sobre los derechos de la infancia, y que cada actor en la cadena de valor de la IA incorpore medidas de seguridad, incluyendo pruebas de seguridad antes del lanzamiento para modelos de código abierto.
“El daño causado por el abuso de deepfake es real y urgente,” advirtió UNICEF. “Los niños no pueden esperar a que la ley se ponga al día”.
La Comisión Europea lanzó el mes pasado una investigación formal para determinar si X violó las normas digitales de la UE al no prevenir que Grok generara contenido ilegal; mientras tanto, Filipinas, Indonesia y Malasia han prohibido Grok, y los reguladores del Reino Unido y Australia también han abierto investigaciones.
Fuente: decrypt.co