Resumen

  • El responsable del producto de X, Nikita Bier, anunció que los creadores que publiquen videos de guerra generados por IA sin revelar su origen perderán acceso al programa de reparto de ingresos de la plataforma por 90 días.
  • La nueva política se centra en videos que podrían engañar a los usuarios en tiempos de guerra.
  • Investigadores y gobiernos advierten que los deepfakes pueden propagar propaganda y desinformación en línea.

La plataforma de redes sociales de Elon Musk, X, ha decidido suspender a aquellos creadores que publiquen videos generados por inteligencia artificial (IA) que muestren conflictos armados, a menos que se aclare que se trata de contenido creado artificialmente.

En un mensaje compartido el martes, Nikita Bier, el jefe de producto de X, mencionó que la empresa está revisando sus políticas de reparto de ingresos para garantizar la autenticidad en la plataforma y “prevener la manipulación del programa”.

«En tiempos de guerra, es fundamental que las personas accedan a información veraz sobre lo que sucede en el terreno», escribió Bier. «Con las tecnologías de IA actuales, crear contenido que pueda engañar a las personas es muy sencillo.»

Los creadores que infrinjan esta normativa perderán el acceso al programa de reparto de ingresos por un periodo de 90 días, según Bier. Las violaciones reiteradas resultarán en la eliminación permanente del programa de monetización.

Este cambio en la política se produce en un contexto en que han circulado videos generados por IA que afirman mostrar escenas de violencia creciente en Medio Oriente, particularmente tras los ataques con misiles de EE. UU., Israel e Irán la semana pasada.

El lunes, un clip generado por IA en X mostró un ataque aéreo en el Burj Khalifa de Dubái y alcanzó más de 8 millones de vistas; simultáneamente, otra versión del video fue vista más de 42,000 veces en Instagram.

Las Naciones Unidas han advertido que los deepfakes y el contenido generado por IA ponen en riesgo la integridad de la información, especialmente en zonas de conflicto donde imágenes o videos falsificados pueden propagar odio o desinformación a gran escala.

Esta preocupación se hizo evidente durante la invasión rusa a Ucrania, cuando circuló un video deepfake que parecía mostrar al presidente ucraniano Volodymyr Zelensky instando a las tropas a rendirse. Las autoridades desmintieron rápidamente el video, y Zelensky emitió un mensaje rechazando dicha afirmación.

Según Bier, la implementación de esta política se basará en diversas señales, incluyendo publicaciones que reciban una Nota de la Comunidad que identifique el video como generado por IA, así como metadatos u otros indicadores que sugieran que el contenido fue creado usando herramientas de IA generativa.

Al vincular la aplicación de la política con la monetización, X se centra específicamente en los incentivos financieros que tienen los creadores para publicar videos falsos que generen clics y visualizaciones.

“Continuaremos refinando nuestras políticas y productos para asegurar que X sea una plataforma de confianza en estos momentos críticos”, concluyó Bier.

Fuente: decrypt.co