Blocks antropia hackers que tentam explorar Claude AI para ataques cibernéticos

A Anthropic, uma empresa líder de pesquisa de IA, interrompeu com sucesso várias tentativas de criminosos cibernéticos de usar seu modelo de IA Claude para ataques cibernéticos sofisticados, conforme detalhado em seu mais recente relatório de inteligência de ameaças.

A empresa implementou salvaguardas avançadas, incluindo classificadores em tempo real e técnicas de resumo hierárquico, para detectar e mitigar esses abusos.

Ao alavancar essas medidas técnicas, o Antrópico proibiu as contas implicadas e aprimorou seus sistemas de detecção para combater a exploração agêntica da IA, onde os modelos executam decisões táticas e estratégicas autonomamente nas operações cibernéticas.

Essa resposta ressalta o crescente desafio de reduzir as barreiras à entrada de crimes cibernéticos complexos, permitindo que atores com experiência técnica mínima orquestre fraudes e extorsão em larga escala.

Ameaças em evolução no cibercrime cibernético assistido pela AI

O relatório destaca como os atores de ameaças estão integrando a IA ao longo de seus oleodutos operacionais, desde o perfil de vítimas e a análise de dados até a fabricação de identidade e o desenvolvimento de malware.

A estrutura unificada de danos e os testes de vulnerabilidade de políticas do Anthropic foram fundamentais para identificar esses riscos, informar as atualizações de políticas e modelar o ajuste fino para evitar resultados prejudiciais.

Por exemplo, colaborações com especialistas externos em segurança cibernética e saúde mental refinaram as respostas de Claude, garantindo que ele recuse a assistência em atividades ilegais enquanto lida com tópicos sensíveis com nuances.

Essas medidas proativas, combinadas com avaliações de segurança pré-implantação e avaliações de viés, fortaleceram o modelo contra o uso indevido em domínios de alto risco, como ameaças químicas, biológicas, radiológicas e nucleares (CBRNE).

Em um caso proeminente, apelidado de “hacking vibe”, um codificador cibercriminal empregou um código de Claude uma ferramenta agêntica para a codificação automatizada para escalar um extorsão de dados Operação direcionada a mais de 17 organizações nos setores de saúde, serviços de emergência, governo e religiosos.

Diferentemente do ransomware tradicional que criptografa os dados, esse ator usou a IA para automatizar o reconhecimento, a colheita de credenciais, a penetração da rede e até a manipulação psicológica nas demandas de extorsão.

Estudos de caso de operações interrompidas

Claude analisou dados financeiros exfiltrados para calibrar valores de resgate, geralmente excedendo US $ 500.000, e geraram notas de resgate personalizadas com visuais alarmantes e estratégias de monetização, incluindo extorsão direta, comercialização de dados e direcionamento individual.

A equipe de inteligência de ameaças da Anthrópica simulou essas táticas para pesquisas, revelando como a IA permite a adaptação em tempo real a sistemas defensivos, como detectores de malware.

Após a descoberta, a empresa implantou um classificador personalizado para detecção rápida, proibiu as contas e compartilhou indicadores com as autoridades para evitar incidentes futuros.

Outra operação envolveu agentes norte-coreanos usando Claude para perpetrar a fraude remota do trabalhador, garantindo posições nas empresas de tecnologia da Fortune 500 dos EUA por meio de identidades fabricadas e avaliações técnicas assistidas pela AI.

Ao superar as barreiras linguísticas e de habilidade, esses atores geraram origens profissionais, passaram entrevistas de codificação e realizaram trabalho real, canalizando lucros para o regime em violação às sanções.

Essa evolução elimina a necessidade de anos de treinamento especializado, expandindo a escala de tais golpes.

Antrópico respondeu aprimorando as ferramentas de correlação indicador, proibindo contas e colaborando com entidades como o FBI para reforçar as defesas.

Além disso, um Claude alavancado cibercriminal de baixa qualificação para criar e vender variantes de ransomware como serviço em Fóruns da Web Darkpreço entre US $ 400 e US $ 1.200.

A IA lidou com algoritmos de criptografia, técnicas de evasão e mecanismos anti-recuperação, tarefas além das capacidades do ator.

Antrópica proibiu a conta e introduziu métodos de detecção de malware para reduzir a exploração da plataforma.

Esses incidentes ilustram o papel da IA ​​em armar recursos agênticos para ataques cibernéticos, reduzindo os pré -requisitos técnicos para crimes sofisticados e incorporando a IA em todos os estágios de fraude.

O monitoramento em andamento da Anthropic, incluindo ferramentas de insights que preserva a privacidade e inteligência de ameaças dos fóruns de hackers, visa antecipar novos abusos.

A Companhia planeja priorizar pesquisas sobre fraude aprimorada da AI, compartilhando descobertas com parceiros da indústria e do governo.

Por meio de programas e colaborações de recompensas de insetos, o Antrópico continua a refinar suas salvaguardas, garantindo que Claude continue sendo uma força para obter resultados benéficos enquanto frustra a exploração maliciosa.

Encontre esta notícia interessante! Siga -nosGoogle NewsAssim,LinkedIneXPara obter atualizações instantâneas!