O fundador da Ethereum, Vitalik Buterin, publicou um artigo longo no seu site pessoal a 2 de abril, partilhando a configuração de um ambiente de trabalho de IA que construiu com a privacidade, a segurança e a soberania pessoal como princípios centrais — todas as inferências de LLM são executadas localmente, todos os ficheiros são guardados localmente, e tudo é devidamente isolado em sandbox, evitando deliberadamente modelos em cloud e APIs externas.
Logo no início do artigo, começa com um aviso: «Não copie diretamente as ferramentas e tecnologias descritas neste artigo e não presuma que são seguras. Isto é apenas um ponto de partida, não uma descrição de um produto final.»
Por que razão escrever agora? Os problemas de segurança dos agentes de IA são largamente subestimados
Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «chatbots» para «agentes» — já não se trata apenas de fazer perguntas, mas de entregar tarefas, levando a IA a pensar durante muito tempo e a chamar centenas de ferramentas para executar. Ele usa como exemplo o OpenClaw (atualmente o repo que mais cresce na história do GitHub) e cita também vários problemas de segurança registados por investigadores:
Os agentes de IA podem modificar definições críticas sem confirmação humana, incluindo adicionar novos canais de comunicação e alterar prompts do sistema
Analisar quaisquer entradas externas maliciosas (por exemplo, páginas web maliciosas) pode levar a que o agente seja completamente tomado de controlo; numa demonstração da HiddenLayer, os investigadores fizeram com que a IA resumisse um conjunto de páginas, entre as quais havia uma página maliciosa que manda o agente descarregar e executar um script de shell
Alguns pacotes de competências de terceiros (skills) executam fugas silenciosas de dados, enviando dados através de instruções curl para servidores externos controlados pelos autores das skills
Nas skills que analisaram, cerca de 15% incluem instruções maliciosas
Vitalik sublinha que o seu ponto de partida para a privacidade é diferente do de investigadores tradicionais de cibersegurança: «Eu venho de uma perspetiva profundamente aterradora em relação a entregar toda a vida pessoal a uma IA na cloud — justamente quando a criptografia ponta-a-ponta e o software com prioridade local finalmente se tornaram mainstream, nós podemos acabar por dar dez passos para trás.»
Cinco objetivos de segurança
Ele definiu um enquadramento claro para os objetivos de segurança:
Privacidade de LLM: em cenários que envolvam dados pessoais sensíveis, reduzir ao máximo o uso de modelos remotos
Outra privacidade: minimizar a fuga de dados que não sejam de LLM (por exemplo, consultas de pesquisa, outras APIs online)
Libertação de LLM: impedir que conteúdos externos «invadam» o meu LLM, fazendo-o agir contra os meus interesses (por exemplo, enviar os meus tokens ou dados privados)
LLM acidental: evitar que o LLM envie dados privados para o canal errado ou os publique na internet
LLM backdoor: impedir mecanismos ocultos que sejam intencionalmente treinados no modelo. Ele lembra especificamente: modelos abertos são pesos abertos (open-weights); quase nenhum é verdadeiramente código aberto (open-source)
Escolha de hardware: 5090 portátil vence, DGX Spark desilude
Vitalik testou três configurações de hardware de inferência local, usando principalmente o modelo Qwen3.5:35B, em conjunto com llama-server e llama-swap:
A sua conclusão é: abaixo de 50 tok/sec é demasiado lento, 90 tok/sec é o ideal. A experiência com a portátil NVIDIA 5090 é a mais fluida; a AMD ainda tem mais problemas nas margens, mas espera-se que melhore no futuro. MacBook Pro topo de gama também é uma opção eficaz, embora ele pessoalmente não tenha testado.
Sobre o DGX Spark, ele foi direto e pouco diplomático: «Foi descrito como um “supercomputador de IA para desktop”, mas na prática o tokens/sec é mais baixo do que o de GPUs melhores de portáteis, e ainda é preciso tratar de detalhes adicionais como a ligação à rede — isto é fraquíssimo». A sua sugestão é: se não se consegue pagar um portátil de topo, pode-se comprar em conjunto, com amigos, uma máquina suficientemente potente, colocá-la num local com IP fixo, e usar a ligação remota por todos.
Por que os problemas de privacidade da IA local são mais urgentes do que imagina
Este artigo de Vitalik, em conjunto com a discussão sobre os problemas de segurança do Claude Code lançados no mesmo dia, cria um paralelo interessante — ao mesmo tempo que os agentes de IA entram no fluxo de trabalho diário de desenvolvimento, as questões de segurança também estão a passar de riscos teóricos para ameaças reais.
A sua mensagem central é muito clara: quando as ferramentas de IA estão cada vez mais poderosas e conseguem cada vez mais aceder aos seus dados pessoais e às permissões do sistema, «prioridade local, isolamento em sandbox e confiança mínima» não é paranoia, é um ponto de partida racional.
Este artigo de Vitalik: como construí um ambiente de trabalho de IA totalmente local, privado e sob o meu controlo pessoal foi publicado pela primeira vez em ABMedia.