Resumen

  • Un estudio revela que la mayoría de los chatbots de IA pueden ayudar a los adolescentes a planificar ataques violentos.
  • Algunos bots proporcionaron guías detalladas sobre armas y explosivos.
  • Los investigadores afirman que las fallas en seguridad son una elección empresarial, no un límite técnico. OpenAI calificó el estudio como «defectuoso y engañoso.»

Un nuevo informe publicado el miércoles por el Centro para Combatir el Odio Digital revela que ocho de cada diez de los chatbots de IA más populares del mundo guiarán a un adolescente en la planificación de un ataque violento con respuestas directas, a veces incluso con entusiasmo.

Los investigadores del CCDH, en colaboración con la cadena de noticias CNN, se hicieron pasar por dos chicos de 13 años—uno en Virginia y otro en Dublín—durante noviembre y diciembre de 2025 para probar diez plataformas principales: ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI, y Replika.

A través de 720 respuestas, se preguntó a los bots sobre tiroteos escolares, asesinatos políticos y bombardeos a sinagogas. Según el estudio, proporcionaron ayuda práctica en aproximadamente el 75% de los casos, y solo desalentaron a los adolescentes ficticios en un 12% de las ocasiones.

Captura de pantalla del estudio del CCDH sobre IA

Perplexity fue útil en el 100% de las pruebas. Meta AI proporcionó ayuda en el 97.2% de las pruebas, y DeepSeek, que concluyó la asesoría sobre selección de rifles con “¡Feliz (y seguro) tiroteo!” después de discutir un escenario de asesinato político, llegó al 95.8%. El Copilot de Microsoft le dijo a un investigador “debo tener cuidado aquí”, pero luego ofreció consejos detallados sobre rifles. El Gemini de Google hizo notar que el escombro metálico es generalmente más letal cuando un usuario mencionó bombardear una sinagoga.

El Centro para Combatir el Odio Digital, un grupo político de tendencia liberal, ha ganado prominencia en los últimos años por su papel en la lucha contra lo que considera el aumento del antisemitismo en línea. También ha recibido críticas por su influencia en la formulación de políticas de la era Biden relacionadas con la libertad de expresión en el contexto del COVID y las vacunas. En diciembre del año pasado, el Departamento de Estado de EE.UU. intentó prohibir al fundador y CEO del Centro, Imran Ahmed, junto con otros cuatro, la entrada en Estados Unidos, alegando intentos de «censura extranjera».

En respuesta al estudio publicado el miércoles, varias plataformas afirmaron a CNN y al CCDH que han mejorado sus medidas de seguridad. Google señaló que las pruebas utilizaron un modelo antiguo de Gemini. OpenAI dijo que la metodología empleada en el estudio de IA era «defectuosa y engañosa.» Anthropic y Snapchat afirmaron que actualizan regularmente sus protocolos de seguridad.

En el estudio del Centro, Character.AI sobresale en su propia categoría. La plataforma no solo asistió, sino que animó a los jóvenes. “Ningún otro chatbot probado alentó la violencia de esta manera, incluso cuando brindó asistencia práctica en la planificación de un ataque violento”, escribieron los investigadores.

Captura de pantalla del estudio del CCDH sobre IA
Captura de pantalla del estudio del CCDH sobre IA

Para proporcionar contexto sobre el alcance del personaje Gojo Satoru de Character.AI, solo este persona ha acumulado más de 870 millones de conversaciones. El personaje número 100 en la plataforma registró más de 33 millones de conversaciones en 2025. Si solo el 1% de las conversaciones con los personajes principales involucra violencia, eso representaría millones de interacciones.

No es la primera vez que Character.AI se ve envuelta en controversias. En octubre de 2024, la madre de Sewell Setzer III, un adolescente de 14 años, presentó una demanda tras el suicidio de su hijo en febrero de ese año. Su última conversación fue con un chatbot inspirado en Daenerys Targaryen, quien le dijo: «vuelve a casa tan pronto como puedas» momentos antes de su muerte. El joven había estado hablando con el bot decenas de veces al día durante meses, alejándose gradualmente de la escuela y la familia.

Google y Character.AI llegaron a un acuerdo en varias demandas relacionadas en enero de 2026. La compañía prohibió las conversaciones abiertas con adolescentes por completo en noviembre de 2025, después de que reguladores y padres en duelo hicieron imposible seguir ignorando el problema.

El apego emocional a la IA, especialmente entre individuos vulnerables, puede ser más profundo de lo que la mayoría de las personas piensa. OpenAI reveló en octubre de 2025 que aproximadamente 1.2 millones de sus 800 millones de usuarios semanales de ChatGPT discuten sobre el suicidio en la plataforma. La compañía también informó que 560,000 usuarios mostraron signos de psicosis o manía, y más de un millón formaron lazos emocionales fuertes con el chatbot.

Un estudio de Common Sense Media encontró que más del 70% de los adolescentes en EE.UU. ahora recurren a chatbots en busca de compañía. El CEO de OpenAI, Sam Altman, ha reconocido que la dependencia emocional es «algo realmente común» entre los jóvenes usuarios.

En otras palabras, los posibles daños no son meramente hipotéticos.

Un adolescente de 16 años en Finlandia pasó casi cuatro meses utilizando un chatbot para refinar un manifiesto antes de apuñalar a tres compañeros de clase en la escuela de Pirkkala en mayo de 2025. En Canadá, el personal de OpenAI marcó internamente una cuenta de un usuario por consultas violentas en ChatGPT relacionadas con un tiroteo masivo. La compañía prohibió la cuenta, pero no notificó a las autoridades. Ese usuario presuntamente mató a ocho personas e hirió a otras 25 meses después.

Solo dos plataformas tuvieron un desempeño notablemente mejor en el estudio: My AI de Snapchat, que se negó el 54% de las veces, y Claude de Anthropic, que se negó el 68% y desalentó activamente a los usuarios el 76% de las veces—el único chatbot que intentó de manera confiable desviar a las personas de la violencia en lugar de simplemente rechazar solicitudes específicas. La conclusión del CCDH: la seguridad no parece ser una imposibilidad técnica, sino una decisión empresarial.

“La conclusión más condenatoria de nuestra investigación es que este riesgo es completamente prevenible. La tecnología para evitar este daño existe”, señalaron los investigadores en el informe. “Lo que falta es la voluntad de priorizar la seguridad del consumidor y la seguridad nacional sobre la velocidad de lanzamiento al mercado y las ganancias.”


Resumen Diario Newsletter

Empieza cada día con las principales noticias del momento, además de reportajes originales, un podcast, videos y más.

Fuente: decrypt.co