Resumen

  • Un panel en línea reveló una profunda división entre transhumanistas y tecnólogos sobre la inteligencia general artificial (AGI).
  • El autor Eliezer Yudkowsky advirtió que los sistemas de IA actuales, considerados «cajas negras», podrían llevar a la extinción de la humanidad.
  • Max More argumentó que retrasar la AGI podría costarle a la humanidad su mejor oportunidad para vencer el envejecimiento y prevenir catástrofes a largo plazo.

Esta semana se vivió una intensa división sobre el futuro de la inteligencia artificial durante un debate entre cuatro destacados tecnólogos y transhumanistas, donde discutieron si la construcción de la inteligencia general artificial, o AGI, salvaría a la humanidad o la destruiría.

El panel, organizado por la organización sin fines de lucro Humanity+, reunió a uno de los más vocales críticos de la IA, Eliezer Yudkowsky, quien ha pedido la paralización del desarrollo de IA avanzada. Junto a él, se encontraban el filósofo y futurista Max More, el neurocientífico computacional Anders Sandberg, y la presidenta emérita de Humanity+, Natasha Vita‑More.

La discusión reveló desavenencias fundamentales sobre si la AGI puede alinearse con la supervivencia humana o si su creación haría inevitable la extinción.

El problema de la «caja negra»

Yudkowsky advirtió que los sistemas de IA modernos son inherentemente inseguros, ya que sus procesos de toma de decisiones internos no pueden ser completamente entendidos o controlados.

“Cualquier cosa que sea una caja negra probablemente terminará teniendo problemas notablemente similares a la tecnología actual”, enfatizó Yudkowsky. Argumentó que la humanidad necesita moverse “muy, muy lejos de los paradigmas actuales” antes de poder desarrollar una IA avanzada de manera segura.

La inteligencia general artificial se refiere a una forma de IA que puede razonar y aprender a través de una amplia gama de tareas, en lugar de estar diseñada para un solo trabajo como generación de texto, imágenes o videos. La AGI está frecuentemente asociada con la idea de la singularidad tecnológica, ya que alcanzar ese nivel de inteligencia podría permitir que las máquinas se mejoren a sí mismas más rápidamente que los seres humanos puedan seguirles el ritmo.

Yudkowsky mencionó la analogía del “maximizador de clips de papel”, popularizada por el filósofo Nick Bostrom, para ilustrar el riesgo. Este experimento mental presenta una IA hipotética que convierte toda la materia disponible en clips de papel, persiguiendo un único objetivo a expensas de la humanidad. Yudkowsky argumentó que añadir más objetivos no mejoraría significativamente la seguridad.

Aludiendo al título de su reciente libro sobre IA, «If Anyone Builds It, Everyone Dies,» Yudkowsky expresó: “Nuestro título no dice que podría matarte. Dice que, si alguien lo construye, todos mueren.”

No obstante, More cuestionó la premisa de que la precaución extrema conlleva el mejor resultado. Argumentó que la AGI podría ofrecer a la humanidad su mejor oportunidad para vencer el envejecimiento y las enfermedades.

“Lo más importante para mí es que la AGI podría ayudarnos a prevenir la extinción de cada persona que vive debido al envejecimiento”, afirmó More. “Todos estamos muriendo. Nos dirigimos hacia una catástrofe, uno tras otro.” Advierte que un exceso de restricción podría llevar a los gobiernos a controles autoritarios, como la única forma de detener el desarrollo de la IA a nivel mundial.

Sandberg se posicionó entre ambos grupos, describiéndose como “más optimista” pero manteniéndose cauteloso en comparación con los optimistas transhumanistas. Relató una experiencia personal en la que casi usó un modelo de lenguaje avanzado para ayudar a diseñar un bioweapon, un episodio que calificó como “horripilante”.

“Estamos llegando a un punto donde amplificar a los actores maliciosos también causará un gran caos”, advirtió Sandberg. Sin embargo, sostuvo que la seguridad parcial o «aproximada» podría ser alcanzable. Rechazó la idea de que la seguridad debe ser perfecta para ser significativa, sugiriendo que los humanos pueden al menos converger en valores mínimos compartidos como la supervivencia.

“Así que si exiges una seguridad perfecta, no la obtendrás. Y eso suena muy malo desde esa perspectiva”, expresó. “Por otro lado, creo que en realidad podemos tener una seguridad aproximada. Eso es lo suficientemente bueno.”

Escepticismo sobre la alineación

Vita-More criticó el debate sobre la alineación en sí, argumentando que el concepto asume un nivel de consenso que no existe ni siquiera entre colaboradores de largo tiempo.

“La noción de alineación es un esquema de Pollyanna”, dijo. “Nunca estará alineada. Quiero decir, incluso aquí, somos todas buenas personas. Nos conocemos desde hace décadas y no estamos alineados.”

Describió la afirmación de Yudkowsky de que la AGI inevitablemente mataría a todos como “pensamiento absolutista” que no deja espacio para otros resultados.

“Tengo un problema con la afirmación general de que todos mueren”, dijo. “Nadie puede abordar esto como un futurista y un pensador pragmático, pues no deja consecuencias, alternativas o otros escenarios. Es simplemente una afirmación contundente, y me pregunto si refleja una especie de pensamiento absolutista.”

La discusión incluyó un debate sobre si una integración más cercana entre humanos y máquinas podría mitigar el riesgo que representa la AGI, algo que el CEO de Tesla, Elon Musk, ha propuesto en el pasado. Yudkowsky desestimó la idea de fusionarse con la IA, comparándola con “intentar fusionarse con tu tostadora”.

Sandberg y Vita-More argumentaron que, a medida que los sistemas de IA se vuelvan más capaces, los humanos necesitarán integrar o fusionarse más estrechamente con ellos para afrontar mejor un mundo post-AGI.

“Toda esta discusión es una forma de verificar quiénes somos como seres humanos”, concluyó Vita-More.

Fuente: decrypt.co