Resumido

  • El Grupo de Inteligencia de Amenazas de Google ha publicado su último informe sobre los peligros de la inteligencia artificial.
  • El informe sugiere que los hackers patrocinados por estados utilizan herramientas como Gemini de Google para acelerar sus ciberataques.
  • Los hackers están mostrando interés en la IA agente para tomar el control total de los ataques.

El Grupo de Inteligencia de Amenazas de Google (GTIG) ha alzado la voz una vez más sobre los riesgos que representa la inteligencia artificial, publicando su último informe sobre cómo los hackers patrocinados por estados utilizan esta tecnología de manera peligrosa.

El equipo ha identificado un aumento en los intentos de extracción de modelos, un método de robo de propiedad intelectual donde los atacantes consultan repetidamente un modelo de IA para intentar aprender su lógica interna y replicarla en un nuevo modelo.

Si bien esto es preocupante, no es el principal riesgo que Google menciona en su informe. También advierte sobre los actores de amenazas respaldados por gobiernos que utilizan modelos de lenguaje grandes (LLMs) para investigaciones técnicas, selección de objetivos y generación rápida de engaños de phishing sofisticados.

El informe destaca las preocupaciones respecto a Corea del Norte, Irán, la República Popular China y Rusia.

Gemini y ataques de phishing

Estos actores están utilizando herramientas de IA, como Gemini de Google, para realizar reconocimiento y perfiles de objetivos, empleando la recopilación de inteligencia de diversas fuentes a gran escala y creando estafas de phishing hipersonalizadas.

“Esta actividad subraya un cambio hacia la habilitación de phishing aumentado por IA, en el que la velocidad y precisión de los LLM pueden facilitar procesos que antes requerían trabajo manual para perfilar a las víctimas”, indica el informe de Google.

“Los objetivos han dependido durante mucho tiempo de indicadores como la mala gramática, una sintaxis torpe o la falta de contexto cultural para identificar intentos de phishing. Cada vez más, los actores de amenazas utilizan los LLM para generar señuelos hipersonalizados que pueden imitar el tono profesional de una organización objetivo”.

Por ejemplo, si a Gemini se le proporcionara la biografía de un objetivo, podría crear una buena personalidad y ayudar a producir un escenario que capte efectivamente su atención. Usando IA, estos actores de amenazas pueden también traducir de manera más eficiente entre idiomas locales.

A medida que la capacidad de la IA para generar código ha crecido, también se han abierto oportunidades para su uso malicioso, ya que estos actores están utilizando la funcionalidad de codificación asistida por IA para solucionar problemas y generar herramientas maliciosas.

El informe también advierte sobre un creciente interés en experimentar con IA agentiva, una forma de inteligencia artificial que puede actuar con cierto grado de autonomía, apoyando tareas como el desarrollo y la automatización de malware.

Google señala sus esfuerzos para combatir este problema a través de diversas iniciativas. Además de crear informes de inteligencia de amenazas varias veces al año, la empresa cuenta con un equipo que busca constantemente amenazas. Google también está implementando medidas para adaptar a Gemini a un modelo que no pueda ser utilizado con fines maliciosos.

A través de Google DeepMind, el equipo intenta identificar estas amenazas antes de que se conviertan en una posibilidad real. En esencia, Google busca identificar funciones maliciosas y eliminarlas antes de que puedan representar un riesgo.

Si bien el informe deja claro que el uso de IA en el panorama de amenazas ha aumentado, Google aclara que aún no existen capacidades radicales. En cambio, simplemente hay un incremento en el uso de herramientas y riesgos.

Fuente: decrypt.co