Resumen

  • Una coalición de grupos de defensa solicita a OpenAI que retire una iniciativa de votación sobre la seguridad de la IA en California.
  • Los críticos argumentan que la medida limitaría la responsabilidad legal y debilitaría la protección de los menores.
  • Aunque OpenAI ha pausado la campaña, la coalición sostiene que mantiene el control de la iniciativa ante plazos cruciales.

Una coalición de grupos de defensa está instando a OpenAI, el desarrollador de ChatGPT, a que se retracte de una iniciativa de votación en California que, según los críticos, podría debilitar las protecciones para los niños y limitar la responsabilidad legal de las empresas de IA.

En una carta enviada a OpenAI el miércoles, revisada por Decrypt, el grupo argumenta que la medida consolidaría protecciones de seguridad infantil muy limitadas, restringiría la capacidad de las familias para demandar y limitaría la capacidad de California para reforzar las leyes sobre IA en el futuro.

La carta, firmada por más de dos docenas de organizaciones, incluyendo la organización sin fines de lucro Encode AI, el Centro para la Tecnología Humana y el Centro de Información de Privacidad Electrónica, pide a OpenAI que disuelva su comité de votación y se aleje de la propuesta mientras los legisladores trabajan en una legislación.

“La principal demanda aquí es que OpenAI se retire de la votación”, declaró Adam Billen, co-director ejecutivo de Encode AI, a Decrypt.

El conflicto se centra en una propuesta conocida como la “Ley de Seguridad para Padres y Niños en IA”, una iniciativa respaldada por OpenAI y Common Sense Media que establecería reglas sobre cómo los chatbots de IA interactúan con los menores, incluyendo requisitos de seguridad y estándares de cumplimiento.

Sin embargo, en la carta, los grupos argumentan que esas reglas son insuficientes. Aseguran que la medida define el daño de manera demasiado restrictiva, limita la aplicación de la ley y restringe la capacidad de las familias para presentar reclamaciones cuando los niños sufren daños.

Billen acotó que OpenAI controla la iniciativa de votación en sí. “OpenAI tiene el poder de retirarla o de invertir el dinero para conseguir firmas. Toda la autoridad legal reside en sus manos”, explicó. “No han retirado realmente la iniciativa de la votación. Esta es una táctica común en California, donde se lanza una iniciativa y se invierte dinero en el comité”.

La carta también señala que la iniciativa define “daño severo” concentrándose en lesiones físicas vinculadas al suicidio o la violencia, excluyendo una gama de impactos en la salud mental que investigadores y familias han señalado como preocupaciones.

Además, resalta las disposiciones que impedirían a los padres y niños presentar reclamaciones bajo la iniciativa y limitarían las herramientas de aplicación disponibles para funcionarios estatales y locales.

Otra inquietud se centra en cómo la propuesta trata la información del usuario. Los grupos argumentan que la definición de contenido de usuario cifrado podría dificultar el acceso a las conversaciones de los chatbots, que han servido como evidencia clave en demandas recientes.

“Leemos eso como un intento de bloquear a las familias para que no puedan revelar los registros de chat de sus hijos fallecidos en tribunal”, indicó Billen.

La carta también advierte que la medida podría ser difícil de enmendar si se aprueba, ya que requeriría un voto de dos tercios en la legislatura para modificarla y ligaría futuros cambios a estándares como el apoyo al “progreso económico”, lo que, según los defensores, podría limitar la capacidad de los legisladores para responder a nuevos riesgos.

Billen afirmo que la iniciativa sigue siendo un factor en las negociaciones en Sacramento, incluso mientras OpenAI ha pausado sus esfuerzos para calificarla para la votación.

“Tienen $10 millones en el comité, y luego le dicen a la legislatura, si no hacen lo que queremos, pondremos el dinero y las firmas para llevar esto a la votación; y si se aprueba, anulará lo que haga la legislatura”, explicó. “Esencialmente, lo que está sucediendo ahora es que están tratando de dirigir y controlar lo que hacen los legisladores estatales, utilizando la iniciativa como una amenaza que tienen sobre la mesa”.

No solo OpenAI está bajo el escrutinio por los daños relacionados con chatbots. A principios de este mes, la familia de Jonathan Gavalas denunció a Google, alegando que Gemini alimentó una ilusión que escaló a la violencia y llevó a su suicidio. Sin embargo, Billen señaló que el enfoque de OpenAI refleja un patrón más amplio en la industria tecnológica.

“El libro de estrategias de cabildeo que se está utilizando en IA por parte de estos grandes jugadores, particularmente Google, Meta y Amazon, es la misma estrategia que se ha utilizado anteriormente en otros problemas tecnológicos”, añadió.

Por ahora, la coalición se centra en conseguir que OpenAI retire la medida y permita que los legisladores avancen a través del proceso legislativo.

“Es realmente importante, especialmente para las compañías que están poniendo esa tecnología en el mercado, que no sean las que estén escribiendo las reglas que los regulen, porque eso no brinda protecciones significativas”, concluyó Billen.

OpenAI no respondió de inmediato a la solicitud de comentarios de Decrypt.

Fuente: decrypt.co