Resumen

  • La inteligencia general artificial (AGI) se refiere a una IA que puede aprender y razonar en múltiples tareas.
  • Los investigadores señalan que los chatbots actuales son potentes pero aún están lejos de alcanzar una verdadera inteligencia general.
  • Los expertos discrepan sobre cuándo podría llegar la AGI o cómo sería posible reconocerla.

La inteligencia general artificial, o AGI, es uno de los hitos más mencionados en la industria de la IA. Los ejecutivos tecnológicos la predicen, los inversores invierten miles de millones en investigar sobre ella, y los críticos advierten sobre los riesgos que representa cuando finalmente llegue.

Sin embargo, lo que exactamente constituye la AGI sigue siendo poco claro, y los investigadores todavía no se ponen de acuerdo sobre qué se considera «inteligencia general», cuándo podría llegar, y cómo la reconoceríamos una vez que esté aquí.

“Existen muchas definiciones diferentes”, explicó Malo Bourgon, CEO del Machine Intelligence Research Institute, en una entrevista con Decrypt. “Cuando empezamos a hablar de, ¿es este sistema AGI? ¿Es ese sistema AGI? ¿Qué califica exactamente como AGI según qué definición? Creo que eso es algo complicado.”

¿La AGI ya está aquí, dicen algunos?

Los recientes avances en modelos de lenguaje grande y potentes IA como Gemini, ChatGPT, y Grok, que pueden redactar ensayos, crear imágenes, generar código y responder preguntas complejas, han llevado a muchos a argumentar que la AGI ya se ha logrado. Pero lo que les falta, según Bourgon, es autonomía.

«En la mayoría de las definiciones de AGI se incluye un sentido de autonomía”, planteó Bourgon. “Que estas cosas no solo se comporten como herramientas y chatbots, sino que tengan esta naturaleza de agente donde pueden llevar a cabo tareas en una amplia variedad de entornos con un alto grado de autonomía.»

Ben Goertzel, CEO de SingularityNET y uno de los impulsores en la popularización de la AGI, argumentó que esta interpretación extiende el concepto.

“El término se ha vuelto bastante confuso en los medios”, comentó Goertzel a Decrypt. “A los CEOs de tecnología les resulta conveniente decir: ‘Hey, ya hemos lanzado AGI’, y la gente tiende a sensationalizarlo.”

En teoría, explicó Goertzel, la AGI se refiere a sistemas de IA capaces de aprender y realizar una amplia gama de tareas más allá de aquellas para las que fueron entrenados explícitamente. Los modelos actuales, aseguró, son poderosos pero fundamentalmente diferentes de la inteligencia general.

“No llegan allí aprendiendo a hacerlo todo,” dijo. “Lo logran al tener la totalidad de internet comprimida en su base de conocimientos.”

Mientras los desarrolladores de IA invierten miles de millones en construir centros de datos de IA para proporcionar cada vez más recursos computacionales a modelos más potentes, una verdadera inteligencia general debería ser capaz de generalizar y generar ideas genuinamente novedosas que vayan más allá de simplemente reutilizar sus datos de entrenamiento, explicó.

“Si tomas los actuales sistemas de redes neuronales profundas y los entrenas en música hasta el año 1900, nunca inventarán hip hop o grindcore”, advirtió Goertzel.

Goertzel argumentó que la transición a la AGI probablemente no se manifestará como un punto de quiebre claro.

“No tiene que haber un límite completamente claro entre la AGI y la pre-AGI”, agregó, comparándolo con las áreas grises en biología alrededor de virus y retrovirus. Aun así, dijo, podríamos reconocer que un perro está vivo y una roca no, incluso si algunos casos límite son «difusos» como en el caso de los virus.

Desarrollo en el extranjero

“Hay toda una gama de lo que queremos decir con AGI”, comentó Chan a Decrypt. “En un extremo, tienes esta idea de auto-mejora recursiva y una explosión de inteligencia, y en el otro, una versión más ‘mundana’, es decir, IA que puede hacer muchas de las cosas que los humanos pueden hacer, o IA como tecnología normal, como internet o computadoras.”

Mientras los laboratorios de IA estadounidenses debaten las implicaciones existenciales de la AGI, Chan afirmó que la conversación en China es muy diferente.

“La AGI no es un gran tema en China, especialmente entre los responsables de políticas, la comunidad más amplia de IA o la industria tecnológica en general”, apuntó. “La mayoría de la gente se centra en intentar lucrar con esto, especialmente en el ámbito físico, donde creo que China y muchas de sus empresas tecnológicas sienten que tienen una ventaja sobre EE. UU., ya que pueden desarrollar la robótica o sistemas autónomos, drones, lo que sea impulsado por IA, porque cuentan con las cadenas de suministro de hardware que EE. UU. no tiene.”

Chan admitió que, aunque los desarrolladores de IA en China no están tan centrados en la AGI como sus homólogos estadounidenses, sí la tienen en mente.

“Algunos de los fundadores de IA chinos sí hablan sobre AGI, y algunos incluso mencionan algo como ASI,” dijo. “Pero en general, la AGI realmente no es un gran tema en China.”

Las predicciones sobre cuándo podría llegar la AGI varían ampliamente. Para los investigadores que estudian la tecnología, la etiqueta en sí misma puede importar menos que lo que los sistemas pueden lograr.

“¿Cuáles son los efectos y las capacidades de estos sistemas?” se preguntó Bourgon. “Esa es más la mentalidad que queremos tener ahora.”

Fuente: decrypt.co