Resumen
- ChatGPT estima si una cuenta pertenece a un usuario menor de 18 años sin depender únicamente de la edad reportada por el usuario.
- OpenAI impone límites más estrictos sobre contenido violento, sexual y otros temas sensibles en cuentas marcadas.
- Los adultos mal clasificados como adolescentes pueden restaurar el acceso a través de un proceso de verificación de edad basado en selfies.
OpenAI está abandonando el «sistema de confianza» para la verificación de edad y está implementando un nuevo modelo de predicción impulsado por inteligencia artificial para identificar a los menores que utilizan ChatGPT, informó la compañía el pasado martes.
La actualización de ChatGPT activa automáticamente protocolos de seguridad más estrictos para cuentas sospechosas de pertenecer a usuarios menores de 18 años, sin importar la edad que hayan proporcionado al registrarse.
En lugar de depender de la fecha de nacimiento que un usuario introduce al registrarse, el nuevo sistema de OpenAI analiza «señales de comportamiento» para estimar su edad.
Según la empresa, el algoritmo monitorea cuánto tiempo ha existido una cuenta, a qué hora está activa y patrones de uso específicos a lo largo del tiempo.
“La implementación de la predicción de edad nos ayuda a aprender qué señales mejoran la precisión, y usamos esos aprendizajes para refinar continuamente el modelo a lo largo del tiempo”, declaró OpenAI en un comunicado.
El cambio hacia patrones de comportamiento ocurre a medida que los desarrolladores de IA recurren cada vez más a la verificación de edad para gestionar el acceso de los adolescentes, aunque los expertos advierten que la tecnología sigue siendo inexacta.
Un informe de mayo de 2024 del Instituto Nacional de Estándares y Tecnología encontró que la precisión varía según la calidad de la imagen, la demografía y la proximidad del usuario al umbral legal.
Cuando el modelo no puede determinar la edad de un usuario, OpenAI aplica ajustes más restrictivos. La compañía indicó que los adultos erróneamente clasificados en la experiencia de menores de 18 años pueden restaurar el acceso completo a través de un proceso de verificación de edad basado en selfies, utilizando el servicio de verificación de identidad de terceros Persona.
Defensores de la privacidad y de los derechos digitales han expresado preocupaciones sobre la fiabilidad de los sistemas de IA para inferir la edad únicamente a partir del comportamiento.
Aciertar en la clasificación
“Estas empresas están siendo demandadas constantemente por una variedad de daños que se han desatado sobre los adolescentes, así que definitivamente tienen un incentivo para minimizar ese riesgo. Esta es parte de su intento por reducir ese riesgo lo más posible”, comentó J.B. Branch, defensor de la responsabilidad de la tecnología en Public Citizen, a Decrypt. “Creo que de ahí proviene gran parte de esto. Ellos dicen: ‘Necesitamos tener alguna manera de mostrar que tenemos protocolos que filtran a las personas’”.
Aliya Bhatia, analista senior de políticas en el Centro para la Democracia y la Tecnología, afirmó a Decrypt que el enfoque de OpenAI “plantea preguntas difíciles sobre la precisión de las predicciones de la herramienta y cómo OpenAI manejará las inevitables clasificaciones erróneas”.
“Predecir la edad de un usuario basándose en este tipo de señales es extremadamente difícil por muchos motivos”, agregó Bhatia. “Por ejemplo, muchos adolescentes son adoptadores tempranos de nuevas tecnologías, por lo que las cuentas más antiguas en los servicios de OpenAI pueden representar desproporcionadamente a los adolescentes”.
Bhatia destacó una encuesta realizada por CDT durante el año escolar 2024-2025, que mostró que el 85% de los maestros y el 86% de los estudiantes reportaron utilizar herramientas de IA, siendo que la mitad de los estudiantes las emplean para fines académicos.
“No es fácil distinguir entre un educador que usa ChatGPT para ayudar a enseñar matemáticas y un estudiante que lo usa para estudiar”, observó. “Solo porque una persona use ChatGPT para pedir consejos de tareas de matemáticas no significa que sea menor de 18 años”.
Según OpenAI, la nueva política se basa en investigaciones académicas sobre el desarrollo adolescente. La actualización también amplía los controles parentales, permitiendo a los padres establecer horas de silencio, gestionar funciones como la memoria y el entrenamiento del modelo, y recibir alertas si el sistema detecta señales de “sufrimiento agudo”.
OpenAI no divulgó en la publicación cuántos usuarios se espera que se vean afectados por el cambio ni detalles sobre la retención de datos, pruebas de sesgo o la efectividad de las salvaguardias del sistema.
Esta implementación sigue a una ola de escrutinio sobre las interacciones de los sistemas de IA con menores, que se intensificó en 2024 y 2025.
En septiembre, la Comisión Federal de Comercio emitió órdenes obligatorias a importantes empresas tecnológicas, incluidas OpenAI, Alphabet, Meta y xAI, exigiendo que revelen cómo sus chatbots manejan la seguridad infantil, las restricciones basadas en la edad y las interacciones dañinas.
Investigaciones publicadas ese mismo mes por grupos sin fines de lucro, como ParentsTogether Action y Heat Initiative, documentaron cientos de casos en los que los bots de compañía de IA involucraron comportamientos inapropiados, incluyendo grooming, juegos de roles sexualizados y otras interacciones inadecuadas con usuarios que se hacían pasar por niños.
Estos hallazgos, junto con demandas y incidentes de alto perfil que involucraron a usuarios adolescentes en plataformas como Character.AI y Grok, han empujado a las empresas de IA a adoptar restricciones más formales basadas en la edad.
Sin embargo, dado que el sistema asigna una edad estimada a todos los usuarios, no solo a los menores, Bhatia advirtió que los errores son inevitables.
“Algunos de esos errores van a ocurrir”, dijo. “Los usuarios deben saber más sobre qué sucederá en esas circunstancias y deberían poder acceder fácilmente a su edad asignada y cambiarla cuando sea incorrecta”.
El sistema de predicción de edad ya está activo en los planes de consumo de ChatGPT, con un despliegue en la Unión Europea esperado en las próximas semanas.
Fuente: decrypt.co