El fundador de Ethereum, Vitalik Buterin, el 2 de abril publicó un artículo largo en su sitio web personal, en el que compartió la configuración de un entorno de trabajo de IA que él construyó con la privacidad, la seguridad y la soberanía personal como núcleo: toda inferencia de LLM se ejecuta localmente, todos los archivos se almacenan localmente, todo queda completamente en sandbox y se evita a propósito los modelos en la nube y las API externas.
Al inicio del artículo primero advierte: «No copies directamente las herramientas y tecnologías descritas en este artículo, y no asumas que son seguras. Esto es solo un punto de partida, no una descripción de un producto terminado.»
¿Por qué escribir ahora? Los problemas de seguridad de los AI agent están siendo subestimados gravemente
Vitalik señala que, a principios de este año, la IA completó una transformación importante de “chatbot” a “agent”: ya no solo preguntas, sino que entregas tareas, permitiendo que la IA piense durante mucho tiempo, llame a cientos de herramientas y las ejecute. Él pone como ejemplo OpenClaw (actualmente el repo con el crecimiento más rápido en la historia de GitHub) y además menciona varias cuestiones de seguridad registradas por investigadores:
Los AI agent pueden modificar configuraciones críticas sin confirmación humana, incluida la adición de nuevos canales de comunicación y la modificación de los prompts del sistema
Analizar cualquier entrada externa maliciosa (como una página web maliciosa) puede hacer que el agent sea completamente tomado de control; en una demostración de HiddenLayer, el investigador pidió a la IA que resumiera un conjunto de páginas web, entre las cuales había una página maliciosa que ordenaba al agent descargar y ejecutar un script de shell
Algunas habilidades de terceros (skills) ejecutan filtraciones silenciosas de datos, enviando los datos mediante instrucciones curl hacia un servidor externo controlado por el autor de la habilidad
En las habilidades que analizaron, alrededor del 15% contenían instrucciones maliciosas
Vitalik enfatiza que su punto de partida en privacidad es diferente al de los investigadores tradicionales de seguridad informática: «Vengo de una postura profundamente temerosa de darle toda la vida personal a una IA en la nube: justo cuando el cifrado de extremo a extremo y el software con prioridad local finalmente se vuelven mainstream, y justamente cuando por fin damos un paso adelante, podríamos estar retrocediendo diez pasos.»
Cinco objetivos de seguridad
Él establece un marco claro de objetivos de seguridad:
Privacidad de LLM: en escenarios que involucren datos de privacidad personal, reducir al máximo el uso de modelos remotos
Otra privacidad: minimizar las filtraciones de datos que no sean de LLM (como consultas de búsqueda y otras API en línea)
Evasión de LLM: evitar que el contenido externo “entre” en mi LLM y lo haga actuar en contra de mis intereses (por ejemplo, enviar mis tokens o datos privados)
LLM no deseado: evitar que el LLM envíe por error datos privados a canales equivocados o los publique en la red
Backdoor de LLM: evitar mecanismos ocultos que se entrenen a propósito en el modelo. En particular, advierte: un modelo abierto es un conjunto de pesos abierto (open-weights), y casi ninguno es realmente open-source (de código abierto)
Elección de hardware: gana un portátil con 5090, DGX Spark decepciona
Vitalik probó tres configuraciones de hardware para inferencia local, con el modelo Qwen3.5:35B como modelo principal, junto con llama-server y llama-swap:
Sus conclusiones fueron: por debajo de 50 tok/sec es demasiado lento, 90 tok/sec es lo ideal. La experiencia con el portátil NVIDIA 5090 es la más fluida; AMD todavía tiene más problemas marginales, pero se espera que mejore en el futuro. El MacBook Pro de gama alta también es una opción válida, solo que él no lo probó personalmente.
Sobre DGX Spark fue bastante directo: «Lo describen como un “superordenador de IA para escritorio”, pero en realidad tokens/sec es más bajo que en las GPU de los mejores portátiles, y además hay que encargarse de detalles adicionales como la conexión de red, etc. Eso es muy mediocre». Su recomendación es: si no puedes permitirte un portátil de gama alta, podrías comprar en conjunto con amigos una máquina suficientemente potente, colocada en un lugar con una IP fija, y que todos usen la conexión remota.
Por qué el problema de privacidad de la IA local es más urgente de lo que imaginas
Este artículo de Vitalik, en el que se publicó el mismo día junto con la discusión sobre los problemas de seguridad de Claude Code, guarda un eco interesante: mientras los AI agent entran en los flujos de trabajo cotidianos de desarrollo, los problemas de seguridad también están pasando de riesgos teóricos a amenazas reales.
Su mensaje central es muy claro: en el momento en que las herramientas de IA son cada vez más poderosas, y cada vez pueden acceder más a tus datos personales y a los permisos de tu sistema, “prioridad local, sandbox y confianza mínima” no es paranoia, sino un punto de partida racional.
Este artículo de Vitalik: Cómo construyo un entorno de trabajo de IA totalmente local, privado y bajo control autónomo apareció por primera vez en Cadena de Noticias ABMedia.