Resumen

  • Wikipedia ha prohibido a sus editores el uso de modelos de lenguaje grandes para generar o reescribir contenido de artículos.
  • La política permite un uso limitado de herramientas de IA para la edición, siempre que los editores revisen los cambios y no se introduzca contenido nuevo.
  • Esta norma responde a preocupaciones crecientes sobre alucinaciones, fuentes fabricadas y precisión en el texto generado por IA.

Los editores de Wikipedia han decidido restringir el uso de inteligencia artificial en la plataforma, mediante una actualización de políticas que prohíbe la utilización de modelos de lenguaje grandes para redactar o reescribir artículos.

Esta nueva directriz refleja la creciente preocupación en la comunidad de Wikipedia respecto a que el texto generado por IA pueda contradecir los estándares de la plataforma, especialmente en lo que respecta a la verificabilidad y las fuentes confiables.

“El texto generado por modelos de lenguaje grandes a menudo viola varias de las políticas clave de contenido de Wikipedia,” dice la actualización de la política. “Por esta razón, se prohíbe el uso de LLMs para generar o reescribir contenido de artículos, salvo las excepciones que se indican a continuación.”

Sin embargo, la política aún permite el uso limitado de herramientas de IA, como sugerir correcciones básicas a los textos redactados por los editores, siempre que el sistema no introduzca nueva información. Se aconseja a los editores revisar esas sugerencias con cuidado.

Si bien la nueva política no menciona sanciones específicas por el uso de contenido generado por IA, las directrices de Wikipedia sobre divulgación establecen que el abuso reiterado constituye un “patrón de edición disruptiva”, y puede llevar a un bloqueo o baneo. Wikipedia también ofrece a los editores un proceso de apelación para reinstaurar sus cuentas tras un bloqueo.

“Los bloqueos se pueden revertir con el acuerdo del administrador que bloqueó, una anulación por otros administradores si el bloqueo fue claramente injustificable, o (en casos muy raros) mediante apelación al Comité de Arbitraje,” indicó Wikipedia.

«La Fundación Wikimedia no determina las políticas editoriales y directrices en Wikipedia; son los editores voluntarios quienes lo hacen,» afirmó un portavoz de la Fundación Wikimedia en una declaración a Decrypt. «La fortaleza de Wikipedia ha sido y seguirá siendo su modelo centrado en el ser humano y guiado por voluntarios».

Emily M. Bender, profesora de lingüística en la Universidad de Washington, menciona que ciertos usos de modelos de lenguaje en herramientas de edición pueden ser razonables, pero establecer una frontera clara entre editar y generar texto puede ser complicado.

“De modo que una de las cosas que puedes hacer con un modelo de lenguaje es crear un corrector ortográfico muy efectivo,” dijo Bender a Decrypt. “Creo que es razonable decir que está bien usar un corrector ortográfico en las ediciones. Y si se trata de un corrector gramatical, eso también puede estar bien.”

Bender detalló que el verdadero desafío surge cuando los sistemas van más allá de corregir la gramática y comienzan a alterar o generar contenido, subrayando que los modelos de lenguaje grandes carecen del tipo de responsabilidad que los contribuyentes humanos aportan a los proyectos de conocimiento colaborativos.

“Utilizar modelos de lenguaje grandes para producir texto sintético implica una falta de responsabilidad y una desconexión con lo que alguien cree o defiende,” explicó. “Cuando hablamos, lo hacemos en función de lo que creemos, no desde una noción objetiva de verdad. Esa conexión no está presente en los modelos de lenguaje grandes.”

Bender argumentó que el uso generalizado de ediciones generadas por IA podría afectar también la reputación de Wikipedia.

“Si las personas están tomando atajos y presentando algo que se asemeja a una edición o artículo de Wikipedia, eso degrada el valor y la reputación del sitio en general,” advirtió.

Joseph Reagle, profesor asociado de estudios de comunicación en la Universidad de Northeastern, quien investiga la cultura y gobernanza de Wikipedia, comentó que la respuesta de la comunidad refleja preocupaciones arraigadas sobre la precisión y el origen del contenido.

“Wikipedia es cautelosa respecto a la prosa generada por IA,” afirmó Reagle en una entrevista con Decrypt. “Toman en serio las caracterizaciones precisas de lo que fuentes confiables dicen sobre un tema. La IA tiene serias limitaciones en ese aspecto, como afirmaciones ‘alucinadas’ y fuentes fabricadas.”

Reagle también subrayó que las políticas fundamentales de Wikipedia moldean cómo los editores perciben las herramientas de IA, indicando que muchos modelos de lenguaje grandes han sido entrenados con contenido de Wikipedia. En octubre, la Fundación Wikimedia anunció que las visitas humanas a Wikipedia cayeron aproximadamente un 8% interanual, al observarse que los motores de búsqueda y chatbots proporcionaban respuestas directamente en sus plataformas, en lugar de llevar a los usuarios al sitio.

En enero, la Fundación Wikimedia anunció diversos acuerdos con compañías de IA, incluyendo Microsoft, Google, Amazon y Meta, que les permiten usar material de Wikipedia a través de su producto empresarial, un servicio comercial diseñado para la reutilización a gran escala de su contenido.

“Aunque el uso de contenido de Wikipedia es permitido por las licencias de Wikipedia, aún existe cierta antipatía entre los wikipedistas hacia los servicios que apropian el contenido de las comunidades y luego exige a estas comunidades lidiar con el exceso de contenido generado por IA,” concluyó Reagle.

A pesar de la prohibición sobre el uso de LLMs, Wikipedia sí permite herramientas de IA para traducir artículos de otras ediciones de idioma al inglés, siempre que los editores verifiquen el texto original. La política también advierte a los editores que no deben confiar únicamente en el estilo de escritura para identificar contenido generado por IA, sino centrarse en si el material cumple con las políticas fundamentales de Wikipedia y el historial de ediciones del contribuyente.

“Algunos editores pueden tener estilos de escritura similares a los de los LLMs,” indica la actualización. “Se necesita más evidencia que solo signos estilísticos o lingüísticos para justificar sanciones, y es mejor considerar la conformidad del texto con las políticas de contenido fundamentales y las ediciones recientes del editor en cuestión.”

Nota del editor: Este artículo fue actualizado después de la publicación para incluir un comentario de la Fundación Wikimedia.


Newsletter Daily Debrief

Comienza cada día con las principales noticias del momento, además de características originales, un podcast, videos y más.

Fuente: decrypt.co