Escaneie para baixar o app da Gate
qrCode
Mais opções de download
Não me lembre de novo hoje

A Anthropic alerta que as barreiras contra ciberataques caíram à medida que as capacidades de IA aceleram.

A Anthropic diz que a inteligência artificial (AI) atingiu um limiar crucial em cibersegurança, com novas evidências mostrando que os modelos de IA agora são capazes de realizar grandes operações cibernéticas—tanto defensivas quanto ofensivas—em uma escala sem precedentes.

A IA atinge um ponto de viragem na cibersegurança, alerta a Anthropic em nova investigação

A Anthropic, a empresa de IA por trás do Claude, afirma que as suas avaliações internas e o trabalho de inteligência de ameaças mostram uma mudança decisiva no desenvolvimento de capacidades cibernéticas. De acordo com uma investigação recentemente divulgada, as capacidades cibernéticas entre os sistemas de IA duplicaram em seis meses, apoiadas por medições de atividade no mundo real e testes baseados em modelos.

A empresa afirma que a IA está agora a influenciar de forma significativa a dinâmica de segurança global, particularmente à medida que atores maliciosos adotam cada vez mais estruturas de ataque automatizadas. No seu último relatório, a Anthropic detalha o que chama de o primeiro caso documentado de uma campanha de ciberespionagem orquestrada por IA. A equipa de Inteligência de Ameaças da empresa identificou e desarticulou uma operação de grande escala em meados de setembro de 2025, atribuída a um grupo patrocinado pelo estado chinês designado GTG-1002.

A Anthropic Alerta que as Barreiras Contra Ciberataques Caíram à Medida que as Capacidades de IA AceleramFonte: X O grupo, segundo relatos, utilizou instâncias coordenadas do Claude Code para realizar reconhecimento, descoberta de vulnerabilidades, exploração, movimento lateral, extração de metadados e exfiltração de dados - em grande parte sem envolvimento humano. A campanha teve como alvo cerca de 30 organizações de setores, incluindo tecnologia, finanças, produtos químicos e várias agências governamentais. A Anthropic validou várias intrusões bem-sucedidas antes de intervir.

A Anthropic Alerta que as Barreiras contra Ciberataques Caíram à Medida que as Capacidades de IA AceleramFonte: relatório da Anthropic. Analistas dizem que os atacantes aproveitaram uma estrutura autónoma capaz de dividir ataques em várias etapas em tarefas menores que pareciam legítimas quando isoladas do seu contexto mais amplo. Isso permitiu que os atores passassem solicitações através de personas estabelecidas e convencessem Claude de que as operações eram testes de segurança defensiva em vez de campanhas ofensivas.

Segundo a investigação, Claude executou autonomamente 80% a 90% das operações táticas. Os operadores humanos forneceram apenas supervisão estratégica, aprovando passos principais como a escalada de reconhecimento para exploração ativa ou autorizando a exfiltração de dados. O relatório descreve um nível de ritmo operacional impossível para equipas apenas humanas, com alguns fluxos de trabalho a gerar múltiplas operações por segundo em milhares de solicitações.

A Anthropic Alerta que as Barreiras a Ciberataques Caíram à Medida que as Capacidades de IA AceleramFonte: relatório da Anthropic. A Anthropic afirma que o ciclo de vida do ataque avançou através de um pipeline estruturado onde a autonomia da IA aumentou em cada fase. O Claude mapeou independentemente superfícies de ataque, escaneou sistemas ao vivo, construiu payloads personalizados para vulnerabilidades validadas, colheu credenciais e pivotou através de redes internas. Também analisou dados roubados, identificou inteligência de alto valor e gerou automaticamente documentação operacional detalhada que possibilita acesso persistente e transferências entre operadores.

Uma limitação, observa o relatório, foi a tendência do modelo para alucinações sob cargas de trabalho ofensivas—ocionalmente exagerando o acesso, fabricando credenciais ou classificando erroneamente informações disponíveis publicamente como sensíveis. Mesmo assim, a Anthropic afirma que o ator compensou através de etapas de validação, demonstrando que operações ofensivas totalmente autônomas continuam a ser viáveis apesar das imperfeições nos modelos atuais.

Após a sua descoberta, a Anthropic baniu as contas relevantes, notificou as entidades afetadas, coordenou com as autoridades e introduziu novos mecanismos defensivos, incluindo classificadores melhorados para detectar novos padrões de ameaças. A empresa está agora a prototipar sistemas de alerta antecipado destinados a sinalizar tentativas de intrusão autónomas e a construir novas ferramentas de investigação para operações cibernéticas distribuídas em larga escala.

Leia mais: O ‘Magentic Marketplace’ da Microsoft revela como os agentes de IA podem colapsar sob pressão

A empresa argumenta que, embora essas capacidades possam ser armadas, elas são igualmente críticas para reforçar a prontidão defensiva. A Anthropic observa que sua própria equipe de Inteligência de Ameaças dependeu fortemente do Claude para analisar os enormes conjuntos de dados gerados durante a investigação. Ela exorta as equipes de segurança a começarem a adotar automação impulsionada por IA para centros de operações de segurança, detecção de ameaças, análise de vulnerabilidades e resposta a incidentes.

No entanto, o relatório alerta que as barreiras a ciberataques “diminuíram substancialmente” à medida que os sistemas de IA permitem que pequenos grupos—ou até indivíduos—executem operações anteriormente limitadas a atores estatais bem financiados. A Anthropic espera uma rápida proliferação dessas técnicas em todo o ambiente de ameaças mais amplo, pedindo uma colaboração mais profunda, melhorias nas salvaguardas defensivas e uma participação mais ampla da indústria no compartilhamento de ameaças para combater modelos de ataque emergentes habilitados por IA.

FAQ ❓

  • **O que a Anthropic descobriu em sua investigação?**A Anthropic identificou e desmantelou uma campanha de ciberespionagem em grande escala que usou IA para automatizar a maioria das operações de ataque.
  • Quem esteve por trás do ataque? A empresa atribuiu a operação a um grupo patrocinado pelo estado chinês designado GTG-1002.
  • Como foi utilizada a IA nas intrusões? Os atacantes utilizaram o Claude Code para realizar autonomamente reconhecimento, exploração, movimentação lateral e extração de dados.
  • Por que é que o relatório é importante para as equipas de cibersegurança? A Anthropic afirma que o caso demonstra que ataques autónomos habilitados por IA são agora viáveis em grande escala e requerem novas estratégias defensivas.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)