Vitalik: Como criar um ambiente de IA totalmente local, privado e sob controlo autónomo

ChainNewsAbmedia
ETH-4,21%

O fundador da Ethereum, Vitalik Buterin, publicou um artigo longo no seu site pessoal a 2 de abril, partilhando a configuração de um ambiente de trabalho de IA que construiu com a privacidade, a segurança e a soberania pessoal como princípios centrais — todas as inferências de LLM são executadas localmente, todos os ficheiros são guardados localmente, e tudo é devidamente isolado em sandbox, evitando deliberadamente modelos em cloud e APIs externas.

Logo no início do artigo, começa com um aviso: «Não copie diretamente as ferramentas e tecnologias descritas neste artigo e não presuma que são seguras. Isto é apenas um ponto de partida, não uma descrição de um produto final.»

Por que razão escrever agora? Os problemas de segurança dos agentes de IA são largamente subestimados

Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «chatbots» para «agentes» — já não se trata apenas de fazer perguntas, mas de entregar tarefas, levando a IA a pensar durante muito tempo e a chamar centenas de ferramentas para executar. Ele usa como exemplo o OpenClaw (atualmente o repo que mais cresce na história do GitHub) e cita também vários problemas de segurança registados por investigadores:

Os agentes de IA podem modificar definições críticas sem confirmação humana, incluindo adicionar novos canais de comunicação e alterar prompts do sistema

Analisar quaisquer entradas externas maliciosas (por exemplo, páginas web maliciosas) pode levar a que o agente seja completamente tomado de controlo; numa demonstração da HiddenLayer, os investigadores fizeram com que a IA resumisse um conjunto de páginas, entre as quais havia uma página maliciosa que manda o agente descarregar e executar um script de shell

Alguns pacotes de competências de terceiros (skills) executam fugas silenciosas de dados, enviando dados através de instruções curl para servidores externos controlados pelos autores das skills

Nas skills que analisaram, cerca de 15% incluem instruções maliciosas

Vitalik sublinha que o seu ponto de partida para a privacidade é diferente do de investigadores tradicionais de cibersegurança: «Eu venho de uma perspetiva profundamente aterradora em relação a entregar toda a vida pessoal a uma IA na cloud — justamente quando a criptografia ponta-a-ponta e o software com prioridade local finalmente se tornaram mainstream, nós podemos acabar por dar dez passos para trás.»

Cinco objetivos de segurança

Ele definiu um enquadramento claro para os objetivos de segurança:

Privacidade de LLM: em cenários que envolvam dados pessoais sensíveis, reduzir ao máximo o uso de modelos remotos

Outra privacidade: minimizar a fuga de dados que não sejam de LLM (por exemplo, consultas de pesquisa, outras APIs online)

Libertação de LLM: impedir que conteúdos externos «invadam» o meu LLM, fazendo-o agir contra os meus interesses (por exemplo, enviar os meus tokens ou dados privados)

LLM acidental: evitar que o LLM envie dados privados para o canal errado ou os publique na internet

LLM backdoor: impedir mecanismos ocultos que sejam intencionalmente treinados no modelo. Ele lembra especificamente: modelos abertos são pesos abertos (open-weights); quase nenhum é verdadeiramente código aberto (open-source)

Escolha de hardware: 5090 portátil vence, DGX Spark desilude

Vitalik testou três configurações de hardware de inferência local, usando principalmente o modelo Qwen3.5:35B, em conjunto com llama-server e llama-swap:

A sua conclusão é: abaixo de 50 tok/sec é demasiado lento, 90 tok/sec é o ideal. A experiência com a portátil NVIDIA 5090 é a mais fluida; a AMD ainda tem mais problemas nas margens, mas espera-se que melhore no futuro. MacBook Pro topo de gama também é uma opção eficaz, embora ele pessoalmente não tenha testado.

Sobre o DGX Spark, ele foi direto e pouco diplomático: «Foi descrito como um “supercomputador de IA para desktop”, mas na prática o tokens/sec é mais baixo do que o de GPUs melhores de portáteis, e ainda é preciso tratar de detalhes adicionais como a ligação à rede — isto é fraquíssimo». A sua sugestão é: se não se consegue pagar um portátil de topo, pode-se comprar em conjunto, com amigos, uma máquina suficientemente potente, colocá-la num local com IP fixo, e usar a ligação remota por todos.

Por que os problemas de privacidade da IA local são mais urgentes do que imagina

Este artigo de Vitalik, em conjunto com a discussão sobre os problemas de segurança do Claude Code lançados no mesmo dia, cria um paralelo interessante — ao mesmo tempo que os agentes de IA entram no fluxo de trabalho diário de desenvolvimento, as questões de segurança também estão a passar de riscos teóricos para ameaças reais.

A sua mensagem central é muito clara: quando as ferramentas de IA estão cada vez mais poderosas e conseguem cada vez mais aceder aos seus dados pessoais e às permissões do sistema, «prioridade local, isolamento em sandbox e confiança mínima» não é paranoia, é um ponto de partida racional.

Este artigo de Vitalik: como construí um ambiente de trabalho de IA totalmente local, privado e sob o meu controlo pessoal foi publicado pela primeira vez em ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário