Notícias

Criminosos utilizam IA em massa, aponta Anthropic

Apesar de todos os esforços para impedir, cibercriminosos estão driblando as barreiras de segurança do chatbot Claude, desenvolvido pela empresa de infraestrutura de IA, Anthropic. Em um relatório recente de “Inteligência de Ameaças”, a equipe da Anthropic, incluindo nomes como Alex Moix e Ken Lebedev, revelou que o chatbot está sendo usado para realizar ataques de grande escala, com alguns chegando a exigir resgates de mais de US$ 500.000.

Os criminosos não apenas conseguem obter dicas e conselhos técnicos, mas também usam o Claude para realizar invasões diretamente, tudo através de uma técnica conhecida como “vibe hacking”. Esse termo refere-se ao uso de IA para manipular emoções humanas, influenciando a confiança e a tomada de decisões. Uma previsão feita em fevereiro por especialistas da Chainalysis indicou que os golpes relacionados a criptomoedas podem atingir seu auge em 2025, à medida que as tecnologias de IA tornam esses ataques mais acessíveis.

A Anthropic também identificou uma situação preocupante: um hacker conseguiu usar o Claude para roubar dados de pelo menos 17 organizações, incluindo hospitais e instituições governamentais. Os valores pedidos em resgate variavam de US$ 75.000 a US$ 500.000 em Bitcoin. O criminoso ainda treinou o chatbot para avaliar registros financeiros comprometidos e elaborar bilhetes de resgate que aumentavam a pressão sobre as vítimas.

Embora o invasor tenha sido banido após essas ações, o caso ilustra como até pessoas com conhecimentos básicos de programação conseguem realizar crimes cibernéticos em uma escala alarmante. Como destacou a Anthropic, “atores que antes não conseguiam implementar criptografia básica estão agora criando ransomware sofisticado.”

Trabalhadores Norte-Coreanos Usando Claude

Além dos casos mencionados, houve descobertas relacionadas a trabalhadores norte-coreanos que exploraram o Claude para criar identidades falsas e conseguir empregos em empresas de tecnologia de ponta. Esses profissionais passaram em testes de codificação e até se prepararam para entrevistas usando o chatbot.

Após uma análise, a Anthropic revelou que uma equipe de seis indivíduos manipulava pelo menos 31 identidades falsas, obtendo documentos oficiais e perfis nas redes sociais, como LinkedIn, para esconder suas verdadeiras identidades e atuar no setor de criptomoedas.

Um exemplo que chamou atenção foi um candidato que se inscreveu para uma vaga de engenheiro full-stack na Polygon Labs. Além disso, foi identificado que eles utilizavam respostas ensaiadas para entrevistas, alegando experiência em plataformas de NFT, como a OpenSea, e serviços de oráculos da Chainlink.

A Anthropic deixou claro que seu objetivo com o relatório é compartilhar os incidentes de uso indevido para auxiliar a comunidade de segurança e reforçar as defesas contra abusos de IA. Apesar de terem implementado várias medidas de proteção e segurança, ainda assim, os criminosos conseguem contornar essas proteções, tornando a situação ainda mais desafiadora.

Rafael Cockell

Administrador, com pós-graduação em Marketing Digital. Cerca de 4 anos de experiência com redação de conteúdos para web.

Artigos relacionados

Botão Voltar ao topo