Resumen
- Tres menores de Tennessee han demandado a xAI, alegando que Grok generó material de abuso sexual infantil a partir de sus fotos reales y lo difundió en línea, causándoles un daño severo.
- La demanda sostiene que xAI lanzó Grok sin las salvaguardias adecuadas y se benefició de su uso indebido, considerándolo una “oportunidad de negocio”.
- Presentada en medio de investigaciones globales, las supuestas víctimas buscan $150,000 por violación más daños y una orden judicial.
Tres menores de Tennessee han interpuesto una demanda contra xAI, la compañía de Elon Musk, en un juicio federal. Alegan que Grok generó material de abuso sexual infantil utilizando sus fotografías reales, y que la empresa diseñó intencionalmente su chatbot de IA sin las salvaguardias estándar de la industria, lucrándose con los resultados.
La demanda, presentada el lunes en el Distrito Norte de California, sostiene que Grok fue utilizado para crear y distribuir material de abuso sexual infantil generado por IA utilizando sus imágenes reales.
Los menores, identificados como Jane Doe 1, 2 y 3, afirman que el contenido alterado fue compartido en diversas plataformas, incluyendo Discord, Telegram y sitios de intercambio de archivos, causando un daño emocional duradero y perjudicando su reputación.
«xAI—y su fundador Elon Musk—vieron una oportunidad de negocio: una oportunidad de lucrar con la depredación sexual de personas reales, incluyendo niños,» reza la demanda. «Sabiendo el tipo de contenido dañino e ilegal que podría—y de hecho—ser producido, xAI lanzó Grok, un modelo de inteligencia artificial generativa con características para crear imágenes y videos que respondían a indicaciones para generar contenido sexual con la imagen o video de una persona real.»
Las supuestas víctimas describen incidentes ocurridos entre mediados de 2025 y principios de 2026, cuando sus fotos reales fueron alteradas en imágenes explícitas y difundidas en línea.
En un caso específico, una de las víctimas fue alertada por un usuario anónimo que encontró carpetas de contenido generado por IA siendo intercambiadas entre cientos de usuarios.
Se alega que un perpetrador accedió a Grok a través de una aplicación de terceros que había licenciado la tecnología de xAI, lo que la demanda sostiene fue una estructura intencionada por parte de xAI para distanciarse de la responsabilidad, mientras continuaba beneficiándose del modelo subyacente.
En enero, ante la creciente oposición pública, Musk escribió en X que no estaba «al tanto de ninguna imagen de menores desnudos,» añadiendo que «al ser solicitada la generación de imágenes, se negará a producir cualquier cosa ilegal.»
Según un hallazgo del Centro para Combatir el Odio Digital, citado en la demanda, Grok produjo un estimado de 23,338 imágenes sexualizadas de niños entre el 29 de diciembre de 2025 y el 9 de enero de este año, aproximadamente una cada 41 segundos.
Las supuestas víctimas buscan daños de al menos $150,000 por violación bajo la Ley de Masha, junto con la devolución de ingresos, daños punitivos, honorarios de abogados y una orden judicial permanente, así como la restitución de beneficios de acuerdo con la Ley de Competencia Desleal de California.
Demandas en aumento
Esta demanda es una de las primeras en responsabilizar directamente a una empresa de IA por la supuesta producción y distribución de material de abuso sexual infantil generado por IA que retrata a menores identificables. Esto ocurre mientras Grok enfrenta investigaciones simultáneas en los EE.UU., UE, Reino Unido, Francia, Irlanda, y Australia.
«Cuando un sistema se diseña intencionalmente para manipular imágenes reales en contenido sexualizado, el abuso resultante no es un anormalidad, sino un resultado previsible,» comentó Even Alex Chandra, socio de IGNOS Law Alliance.
Chandra indicó que los tribunales podrían no aceptar una defensa simple basada en la plataforma, señalando que un sistema de IA generativa podría ser «tratado como una plataforma en términos de interacción del usuario» pero «evaluado como un producto» al considerar el diseño de seguridad, con un «examen particularmente estricto» aplicado en casos de material de abuso sexual infantil debido a las obligaciones de protección infantil elevadas.
También mencionó que es probable que los tribunales se centren en las salvaguardias, señalando que se espera que la compañía demuestre «evaluaciones de riesgo y medidas de seguridad por diseño antes de la implementación,» junto con protecciones que bloqueen activamente las salidas dañinas.
Decrypt ha contactado a Musk a través de xAI y SpaceX para obtener comentarios.
Fuente: decrypt.co