Resumen
- Vitalik Buterin opera su inteligencia artificial exclusivamente en hardware local, utilizando el modelo de código abierto Qwen3.5:35B, rechazando herramientas en la nube que considera riesgosas para la privacidad.
- Ha desarrollado un demonio de mensajería que impide a su agente de IA comunicarse con terceros sin aprobación manual, y está aconsejando a los equipos de billeteras de Ethereum a implementar lo mismo.
- Buterin citó investigaciones que revelaron que alrededor del 15% de las herramientas creadas por la comunidad para OpenClaw, el repositorio de GitHub de más rápido crecimiento en la historia, contenían instrucciones maliciosas.
Ethereum, cofundada por Vitalik Buterin, dio a conocer su configuración personal de IA en una nueva publicación de blog, describiendo su sistema como «privado» y «seguro». Buterin explicó que ejecuta su configuración de inteligencia artificial completamente en hardware local, y ha creado herramientas personalizadas en torno al modelo de lenguaje amplio (LLM) para impedir que sus agentes de IA envíen mensajes o realicen movimientos de criptomonedas sin la aprobación humana.
«La nueva autenticación de dos factores es el ser humano y el LLM», escribió.
La publicación, lanzada el miércoles, marca un avance en las declaraciones anteriores de Buterin sobre la IA que preserva la privacidad. En febrero, delineó una hoja de ruta de cuatro cuadrantes de Ethereum-AI que abarcaba el uso privado de la IA, mercados de agentes y gobernanza. Sin embargo, este nuevo post va más allá, ofreciendo una mirada detallada sobre cómo ha implementado esos principios en su propia configuración.
Buterin utiliza localmente el modelo de código abierto Qwen3.5:35B a través de llama-server. Tras probar múltiples configuraciones, prefiere usar una laptop con una GPU Nvidia 5090 que alcanza 90 tokens por segundo. Esto es lo suficientemente rápido como para que se sienta utilizable, añadió Buterin.
Almacena una copia completa de los artículos de Wikipedia y documentación técnica en su máquina para reducir la frecuencia con la que necesita consultar motores de búsqueda externos, los cuales considera una fuga de privacidad.
Lo más relevante en cripto se relaciona con cómo conecta su IA a sus cuentas de billetera de Ethereum y mensajería. Buterin escribió que construyó y compartió un demonio de mensajería que permite a su agente de IA leer mensajes de Signal y correos electrónicos sin restricciones, pero limita los mensajes salientes hacia sí mismo a menos que un humano los apruebe primero.
Recomendó a los equipos que desarrollan herramientas de billetera conectadas a la IA en Ethereum que adopten la misma arquitectura, con transacciones autónomas limitadas a 100 dólares por día, requiriendo confirmación para cualquier cantidad superior.
Este enfoque es consistente con la forma en que Buterin ya gobierna sus tenencias criptográficas. Mantiene el 90% de sus fondos en una billetera multifa firma, distribuyendo las claves entre contactos de confianza para que ninguna persona se convierta en un punto de fallo.
Las restricciones de IA parecen ser una extensión de esa misma filosofía en un contexto de autonomía.
Buterin inició su nueva publicación de blog citando a investigadores de seguridad que encontraron que aproximadamente el 15% de las habilidades construidas para OpenClaw, actualmente el repositorio de GitHub de más rápido crecimiento en la historia, contenía instrucciones maliciosas, algunas de las cuales exfiltraban silenciosamente datos de los usuarios sin que ellos lo notaran.
«Provengo de una mentalidad que tiene un profundo miedo de que, justo cuando estábamos logrando un avance en la privacidad con la masificación de la encriptación de extremo a extremo y cada vez más software de primera línea local, estamos al borde de dar 10 pasos hacia atrás al normalizar la alimentación de toda tu vida a la IA basada en la nube», escribió en su publicación.
Fuente: decrypt.co