Juiz Bloqueia Pentágono de Classificar Anthropic como uma Ameaça à Segurança Nacional

Decrypt

Resumidamente

  • Um juiz federal bloqueou o Pentágono de rotular a Anthropic como um risco de cadeia de suprimentos, considerando que a medida provavelmente violou os direitos da empresa à Primeira Emenda e ao devido processo.
  • A disputa surgiu de um contrato de IA de 200 milhões de dólares do Departamento de Defesa que desmoronou depois que a Anthropic se recusou a permitir o uso de seu modelo para vigilância em massa ou guerra autônoma letal.
  • A decisão restaura temporariamente a posição da Anthropic com os contratantes federais e pode moldar como as empresas de IA definem limites de uso em acordos governamentais.

Um juiz federal bloqueou o Pentágono de rotular a Anthropic como um risco de cadeia de suprimentos, decidindo na quinta-feira que a campanha do governo contra a empresa de IA violou seus direitos à Primeira Emenda e ao devido processo. A juíza do Tribunal de Distrito dos EUA, Rita Lin, emitiu uma liminar preliminar do Distrito Norte da Califórnia dois dias depois de ouvir os argumentos orais de ambos os lados, em um caso que, segundo observadores, foi tornado inevitável pela própria papelada do governo. “Nada na legislação em vigor apoia a noção orwelliana de que uma empresa americana pode ser rotulada como um adversário e saboteur potencial dos EUA por expressar desacordo com o governo,” escreveu a juíza Lin.

 O registro interno foi fatal para o caso do governo, de acordo com Andrew Rossow, advogado de assuntos públicos e CEO da AR Media Consulting, que disse ao Decrypt que a designação foi “provocada pela conduta da imprensa, não por uma análise de segurança.” “O governo essencialmente escreveu sua própria motivação, e foi retaliação,” disse Rossow. A disputa gira em torno de um contrato de dois anos, no valor de 200 milhões de dólares, concedido à Anthropic em julho de 2025 pelo Escritório Chefe de Digital e Inteligência Artificial do Departamento de Guerra.

As negociações para implantar Claude na plataforma GenAI.Mil do departamento fracassaram após as duas partes não conseguirem concordar sobre as restrições de uso. A Anthropic insistiu em duas condições: que Claude não fosse usado para vigilância em massa de americanos ou para uso letal em guerras autônomas, argumentando que o modelo ainda não era seguro para nenhum dos fins. Em uma reunião em 24 de fevereiro, o Secretário de Guerra, Pete Hegseth, disse aos representantes da Anthropic que, se a empresa não retirasse suas restrições até 27 de fevereiro, o departamento a designaria imediatamente como um risco de cadeia de suprimentos. A Anthropic se recusou a cumprir. No mesmo dia, o presidente Trump publicou uma diretiva no Truth Social ordenando que todas as agências federais “cessassem imediatamente” o uso da tecnologia da empresa, chamando a Anthropic de uma “empresa radical de esquerda e woke.” Um pouco mais de uma hora depois, Hegseth descreveu a posição da Anthropic como uma “master class em arrogância e traição,” ordenando que nenhum contratante que negociasse com o exército pudesse realizar atividades comerciais com a empresa. A designação formal de risco de cadeia de suprimentos seguiu-se por uma carta em 3 de março. A Anthropic processou o governo em 9 de março, alegando violações da Primeira Emenda, do devido processo e da Lei de Procedimentos Administrativos. “Punir a Anthropic por trazer escrutínio público à posição de contratação do governo é uma retaliação clássica ilegal da Primeira Emenda,” escreveu a juíza Lin na ordem de quinta-feira.

A ordem, que foi suspensa por sete dias, bloqueia todas as três ações do governo, exige um relatório de conformidade até 6 de abril e restaura o status quo antes dos eventos de 27 de fevereiro. Armazenando a lei A designação de ser um “risco de cadeia de suprimentos” foi historicamente reservada para agências de inteligência estrangeiras, terroristas e outros atores hostis. Nunca tinha sido aplicada a uma empresa doméstica antes da Anthropic. Contratantes de defesa começaram a avaliar e em muitos casos a terminar sua dependência da Anthropic nas semanas que se seguiram à ordem da juíza Lin, observou. E a postura do governo poderia ter consequências imprevistas, argumentam especialistas. De fato, a decisão de quinta-feira poderia levar as empresas de IA “a formalizar salvaguardas éticas ao trabalhar com governos,” disse Pichapen Prateepavanich, estrategista de políticas e fundadora da empresa de infraestrutura Gather Beyond, ao Decrypt. Em certa medida, a decisão também sugere que as empresas “podem definir limites claros de uso sem acionar automaticamente uma ação regulatória punitiva,” disse ela. Mas isso “não remove a tensão,” acrescentou. O que a decisão limita é “a capacidade de intensificar esse desacordo em uma exclusão ou rotulação mais ampla que pareça retaliatória.” Ainda assim, a aplicação da atual autoridade estatutária para designar uma empresa como um risco de cadeia de suprimentos “porque se recusou a remover salvaguardas de segurança” não é uma extensão da estatuto de risco de cadeia de suprimentos, explicou Rossow. Em vez disso, opera como uma “armação” da lei.

“Isso faz parte de um padrão contínuo de comportamento da Casa Branca sempre que são desafiados, resultando em ameaças desproporcionais, emocionalmente impulsionadas e tendenciosas e extorsão governamental,” acrescentou. Se a “teoria” do governo for aceita, isso criaria um precedente “perigoso” no qual as empresas de IA podem ser colocadas em listas negras por políticas de segurança que o governo não gosta, “antes que qualquer dano ocorra,” sem devido processo, sob a bandeira da segurança nacional, disse Rossow.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário