Cibercrime passou por uma transformação fundamental. O que antes exigia conhecimentos técnicos avançados e operações manuais agora pode ser realizado com a ajuda de inteligência artificial, tornando os ataques mais rápidos, mais baratos e muito mais difíceis de detectar. Os cibercriminosos utilizam IA para criar esquemas de fraude que visam desde poupanças de reforma até segredos corporativos, com uma precisão impressionante.
Dados recentes de Brian Singer, investigador Ph.D. na Carnegie Mellon que estuda o uso de modelos de linguagem grande em ataques cibernéticos, mostram que entre 50 e 75 por cento do spam e mensagens de phishing em todo o mundo agora vêm de sistemas de IA. Este número reflete uma mudança fundamental na forma como o cibercrime opera.
A Inteligência Artificial Cria Experiências de Fraude Muito Convincentes
A mesma tecnologia usada por plataformas digitais para personalizar anúncios agora é empregada por criminosos para coletar detalhes pessoais e realizar fraudes personalizadas. Sistemas de IA treinados com dados de comunicação corporativa podem gerar milhares de mensagens que soam naturais e de acordo com o estilo da organização alvo. Elas imitam a forma como executivos escrevem, mencionam notícias recentes de registros públicos e eliminam erros linguísticos que anteriormente revelavam tentativas de fraude por parte de atores internacionais.
Alice Marwick, que lidera pesquisas na Data & Society, uma organização de pesquisa tecnológica independente, explica a mudança mais significativa: “A verdadeira mudança é o escopo e a escala. Fraudes maiores, mais direcionadas, mais convincentes.”
Os criminosos também utilizam tecnologia deepfake para criar vídeos e áudios falsos de líderes empresariais. Eles usam identidades falsas semelhantes para atingir várias pessoas ao mesmo tempo, criando o que John Hultquist, chefe de análise do Threat Intelligence Group do Google, chama de “credibilidade em grande escala.”
Cibercrime Evolui para um Modelo de Negócio Estruturado
O maior cenário que facilita essa mudança é a redução das barreiras de entrada no mundo do cibercrime. O mercado underground agora vende ou aluga ferramentas de IA para crimes cibernéticos por preços tão baixos quanto $90 por mês. Esses serviços incluem nomes como WormGPT, FraudGPT e DarkGPT, com diferentes faixas de preço e suporte ao cliente profissional.
Nicolas Christin, que lidera o departamento de software e infraestrutura na Carnegie Mellon, detalha esse ecossistema: “Desenvolvedores vendem assinaturas de plataformas de ataque com preços escalonados e suporte ao cliente.” Alguns desses serviços até incluem materiais de treinamento sobre técnicas de hacking.
Margaret Cunningham, vice-presidente de segurança e estratégia de IA na Darktrace, uma empresa de segurança cibernética, afirma que as barreiras tornaram-se muito baixas: “Você não precisa saber programar, só saber onde encontrar essas ferramentas.” Um desenvolvimento recente chamado “vibe-coding” permite que potenciais criminosos usem IA para criar seus próprios programas maliciosos sem precisar comprá-los de fontes underground.
As operações de cibercrime em si já funcionam com um modelo de negócios há anos. Ataques de ransomware típicos envolvem papéis especializados: corretores de acesso que invadem redes corporativas e vendem acessos, equipes de penetração que se movem pelos sistemas roubando dados, e provedores de ransomware que distribuem malware, negociam e dividem os lucros.
IA Aumenta a Eficiência e a Lucratividade das Operações Criminosas
A inteligência artificial aumentou a velocidade, escala e acessibilidade desses sistemas. Trabalhos que antes exigiam conhecimentos técnicos profundos agora podem ser automatizados. Isso permite que grupos operem com menos pessoal, com riscos menores e lucros maiores.
Christin faz uma analogia: “Pense na próxima fase de industrialização. A IA aumenta a produtividade sem precisar de mais mão de obra qualificada.” Os cibercriminosos também estão cada vez mais habilidosos na escolha de alvos. Usam IA para verificar redes sociais e identificar indivíduos enfrentando grandes dificuldades de vida—divórcios, mortes na família, perda de emprego—situações que os tornam mais vulneráveis a fraudes amorosas, esquemas de investimento falsos ou ofertas de emprego fraudulentas.
A IA Pode Realizar Ataques Completamente Sozinha?
Uma questão crítica surge: a IA pode lançar ataques cibernéticos totalmente sem intervenção humana? A resposta atual é não. Especialistas comparam a situação ao desenvolvimento de veículos autônomos completos. Os últimos cinco por cento—a parte que permite ao carro dirigir sozinho para qualquer lugar, a qualquer momento—ainda não foi alcançada.
No entanto, pesquisadores estão testando as capacidades de hacking de IA em ambientes de laboratório. Uma equipe na Carnegie Mellon, apoiada pela Anthropic, conseguiu imitar uma violação de dados famosa da Equifax usando IA no início deste ano. Isso é considerado um “salto grande” pelos especialistas.
Defesa Contra o Cibercrime Potencializado por IA
Por outro lado, empresas de IA estão comprometidas em usar a mesma tecnologia para fortalecer a defesa digital. Anthropic e OpenAI estão desenvolvendo sistemas de IA que podem continuamente verificar códigos de software em busca de vulnerabilidades que possam ser exploradas por criminosos. Ainda assim, humanos precisam aprovar quaisquer correções.
Programas de IA mais recentes, desenvolvidos por pesquisadores de Stanford, demonstraram desempenho superior ao de alguns testadores humanos na identificação de problemas de segurança em redes. Embora a IA não possa impedir todas as violações, as organizações devem focar em construir redes robustas que continuem operando durante ataques cibernéticos.
Esse cenário em evolução do cibercrime mostra que a batalha entre usuários de IA com fins maliciosos e a defesa digital ainda está no começo. A conscientização e a preparação continuam sendo as linhas de defesa mais fortes.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A Inteligência Artificial Está a Transformar o Panorama do Crime Cibernético: De Hobby de Hackers a Indústria Estruturada
Cibercrime passou por uma transformação fundamental. O que antes exigia conhecimentos técnicos avançados e operações manuais agora pode ser realizado com a ajuda de inteligência artificial, tornando os ataques mais rápidos, mais baratos e muito mais difíceis de detectar. Os cibercriminosos utilizam IA para criar esquemas de fraude que visam desde poupanças de reforma até segredos corporativos, com uma precisão impressionante.
Dados recentes de Brian Singer, investigador Ph.D. na Carnegie Mellon que estuda o uso de modelos de linguagem grande em ataques cibernéticos, mostram que entre 50 e 75 por cento do spam e mensagens de phishing em todo o mundo agora vêm de sistemas de IA. Este número reflete uma mudança fundamental na forma como o cibercrime opera.
A Inteligência Artificial Cria Experiências de Fraude Muito Convincentes
A mesma tecnologia usada por plataformas digitais para personalizar anúncios agora é empregada por criminosos para coletar detalhes pessoais e realizar fraudes personalizadas. Sistemas de IA treinados com dados de comunicação corporativa podem gerar milhares de mensagens que soam naturais e de acordo com o estilo da organização alvo. Elas imitam a forma como executivos escrevem, mencionam notícias recentes de registros públicos e eliminam erros linguísticos que anteriormente revelavam tentativas de fraude por parte de atores internacionais.
Alice Marwick, que lidera pesquisas na Data & Society, uma organização de pesquisa tecnológica independente, explica a mudança mais significativa: “A verdadeira mudança é o escopo e a escala. Fraudes maiores, mais direcionadas, mais convincentes.”
Os criminosos também utilizam tecnologia deepfake para criar vídeos e áudios falsos de líderes empresariais. Eles usam identidades falsas semelhantes para atingir várias pessoas ao mesmo tempo, criando o que John Hultquist, chefe de análise do Threat Intelligence Group do Google, chama de “credibilidade em grande escala.”
Cibercrime Evolui para um Modelo de Negócio Estruturado
O maior cenário que facilita essa mudança é a redução das barreiras de entrada no mundo do cibercrime. O mercado underground agora vende ou aluga ferramentas de IA para crimes cibernéticos por preços tão baixos quanto $90 por mês. Esses serviços incluem nomes como WormGPT, FraudGPT e DarkGPT, com diferentes faixas de preço e suporte ao cliente profissional.
Nicolas Christin, que lidera o departamento de software e infraestrutura na Carnegie Mellon, detalha esse ecossistema: “Desenvolvedores vendem assinaturas de plataformas de ataque com preços escalonados e suporte ao cliente.” Alguns desses serviços até incluem materiais de treinamento sobre técnicas de hacking.
Margaret Cunningham, vice-presidente de segurança e estratégia de IA na Darktrace, uma empresa de segurança cibernética, afirma que as barreiras tornaram-se muito baixas: “Você não precisa saber programar, só saber onde encontrar essas ferramentas.” Um desenvolvimento recente chamado “vibe-coding” permite que potenciais criminosos usem IA para criar seus próprios programas maliciosos sem precisar comprá-los de fontes underground.
As operações de cibercrime em si já funcionam com um modelo de negócios há anos. Ataques de ransomware típicos envolvem papéis especializados: corretores de acesso que invadem redes corporativas e vendem acessos, equipes de penetração que se movem pelos sistemas roubando dados, e provedores de ransomware que distribuem malware, negociam e dividem os lucros.
IA Aumenta a Eficiência e a Lucratividade das Operações Criminosas
A inteligência artificial aumentou a velocidade, escala e acessibilidade desses sistemas. Trabalhos que antes exigiam conhecimentos técnicos profundos agora podem ser automatizados. Isso permite que grupos operem com menos pessoal, com riscos menores e lucros maiores.
Christin faz uma analogia: “Pense na próxima fase de industrialização. A IA aumenta a produtividade sem precisar de mais mão de obra qualificada.” Os cibercriminosos também estão cada vez mais habilidosos na escolha de alvos. Usam IA para verificar redes sociais e identificar indivíduos enfrentando grandes dificuldades de vida—divórcios, mortes na família, perda de emprego—situações que os tornam mais vulneráveis a fraudes amorosas, esquemas de investimento falsos ou ofertas de emprego fraudulentas.
A IA Pode Realizar Ataques Completamente Sozinha?
Uma questão crítica surge: a IA pode lançar ataques cibernéticos totalmente sem intervenção humana? A resposta atual é não. Especialistas comparam a situação ao desenvolvimento de veículos autônomos completos. Os últimos cinco por cento—a parte que permite ao carro dirigir sozinho para qualquer lugar, a qualquer momento—ainda não foi alcançada.
No entanto, pesquisadores estão testando as capacidades de hacking de IA em ambientes de laboratório. Uma equipe na Carnegie Mellon, apoiada pela Anthropic, conseguiu imitar uma violação de dados famosa da Equifax usando IA no início deste ano. Isso é considerado um “salto grande” pelos especialistas.
Defesa Contra o Cibercrime Potencializado por IA
Por outro lado, empresas de IA estão comprometidas em usar a mesma tecnologia para fortalecer a defesa digital. Anthropic e OpenAI estão desenvolvendo sistemas de IA que podem continuamente verificar códigos de software em busca de vulnerabilidades que possam ser exploradas por criminosos. Ainda assim, humanos precisam aprovar quaisquer correções.
Programas de IA mais recentes, desenvolvidos por pesquisadores de Stanford, demonstraram desempenho superior ao de alguns testadores humanos na identificação de problemas de segurança em redes. Embora a IA não possa impedir todas as violações, as organizações devem focar em construir redes robustas que continuem operando durante ataques cibernéticos.
Esse cenário em evolução do cibercrime mostra que a batalha entre usuários de IA com fins maliciosos e a defesa digital ainda está no começo. A conscientização e a preparação continuam sendo as linhas de defesa mais fortes.