Google Expone Manipulación de su IA por Parte de Hackers Gubernamentales

Un informe reciente de Google revela intentos de hackers respaldados por gobiernos para utilizar su inteligencia artificial Gemini con fines maliciosos, aunque los esfuerzos por vulnerarla no tuvieron éxito.

Crece la Preocupación por el Mal Uso de la IA

El avance de la inteligencia artificial ha generado grandes oportunidades en múltiples industrias. Sin embargo, su desarrollo también la convierte en un objetivo para actores malintencionados, lo que ha despertado preocupaciones sobre su posible uso indebido.

El departamento de inteligencia de amenazas de Google publicó un informe titulado Uso malintencionado de la IA generativa, en el que se detallan los intentos de distintos actores para manipular su chatbot de inteligencia artificial, Gemini.

Según el informe, diversos grupos intentaron «liberar» a la IA utilizando comandos específicos. Entre ellos, se encuentran actores de amenazas persistentes avanzadas (APT, por sus siglas en inglés) respaldados por gobiernos, quienes trataron de emplear Gemini para llevar a cabo actividades maliciosas.

Google Expone Intentos Fallidos de Hackeo a Gemini

A pesar de los esfuerzos de estos actores malintencionados, Google aseguró que no se han detectado intentos sofisticados para vulnerar Gemini.

Los hackers solo aplicaron técnicas básicas, como reformular solicitudes o repetir comandos en múltiples ocasiones. De acuerdo con Google, estos intentos no tuvieron éxito.

El «jailbreak» en modelos de inteligencia artificial consiste en ataques diseñados para forzar a la IA a realizar acciones que están explícitamente prohibidas, como revelar información confidencial, información financiera como de «criptomonedas» o generar contenido peligroso.

En un caso documentado, un grupo APT intentó engañar a Gemini con comandos disponibles públicamente para que generara código con propósitos dañinos. Sin embargo, el sistema detectó la manipulación y respondió con filtros de seguridad.

Cómo Intentaron los Hackers Gubernamentales Aprovechar Gemini

Además de los intentos básicos de manipulación, Google expone cómo los grupos APT buscaron utilizar Gemini en distintas fases de sus actividades ilícitas.

Entre sus métodos, trataron de emplear la IA para recopilar información sobre objetivos, investigar vulnerabilidades conocidas y generar código y scripts para ataques. También intentaron emplearla en tácticas posteriores a una intrusión, como la evasión de defensas.

El informe menciona que hackers de Irán usaron la inteligencia artificial para crear campañas de phishing y para investigar a expertos y organizaciones del sector de la defensa. Asimismo, generaron contenido relacionado con ciberseguridad.

Por otro lado, se identificó que actores APT de China emplearon Gemini para depurar código, desarrollar scripts y explorar formas de acceder más profundamente a redes objetivo.

En el caso de Corea del Norte, los atacantes utilizaron la IA en distintas fases de su ciclo de ataque, desde la investigación hasta el desarrollo de herramientas. Google expone que estos grupos también recurrieron a Gemini para obtener información estratégica sobre temas de interés para el gobierno norcoreano, como el ejército de Corea del Sur y el mercado de criptomonedas.

En 2024, los hackers de Corea del Norte lograron robar activos digitales por un valor de 1.300 millones de dólares, según datos de la firma Chainalysis.

Este informe confirma que, aunque los intentos de manipular Gemini no tuvieron éxito, la inteligencia artificial sigue siendo un objetivo de alto interés para grupos maliciosos. Google expone la importancia de reforzar los sistemas de seguridad para prevenir su uso indebido en ciberataques.