Notícias

Anthropic corrige falhas críticas no Claude após risco de roubo de dados e execução remota

Anthropic corrige falhas críticas no Claude após risco de roubo de dados e execução remota

afp_tickers

A Anthropic anunciou a correção de falhas críticas no Claude, seu assistente de inteligência artificial, após a identificação de vulnerabilidades que poderiam comprometer ambientes de desenvolvimento e dados sensíveis. A atualização foi destacada como urgente por especialistas em cibersegurança.

As falhas estavam associadas ao Claude Code, ferramenta voltada para desenvolvedores, e permitiam desde execução remota de comandos até o roubo de credenciais de acesso — um cenário considerado de alto risco para empresas.

Vulnerabilidades permitiam ataques silenciosos e roubo de chaves

De acordo com análises de segurança, os problemas exploravam arquivos de configuração aparentemente inofensivos dentro de repositórios de código. Ao abrir um projeto comprometido, o sistema poderia:

  • Executar comandos automaticamente sem autorização
  • Contornar mecanismos de consentimento do usuário
  • Exfiltrar chaves de API para servidores maliciosos
  • Comprometer ambientes corporativos compartilhados

O mais preocupante é que, em alguns casos, não era necessário executar nenhum código manualmente — bastava abrir o repositório para que o ataque fosse iniciado.


Correções foram aplicadas antes da divulgação pública

As vulnerabilidades, identificadas como CVE-2025-59536 e CVE-2026-21852, foram corrigidas pela Anthropic em colaboração com pesquisadores de segurança antes de se tornarem amplamente exploradas.

Entre as principais medidas adotadas estão:

  • Bloqueio de execuções automáticas sem consentimento
  • Reforço nos avisos de confiança ao usuário
  • Restrição de comunicação com APIs antes da validação do ambiente
  • Ajustes no controle de integrações externas

Cresce o alerta sobre riscos em ferramentas de IA para desenvolvimento

O caso reforça uma mudança importante no cenário de cibersegurança: ferramentas de IA, antes vistas apenas como apoio à produtividade, passam a ocupar um papel central na infraestrutura de desenvolvimento — e, consequentemente, ampliam a superfície de ataque.

Especialistas destacam que a adoção acelerada de soluções baseadas em IA exige novos modelos de segurança, já que arquivos e automações passam a ter impacto direto na execução de sistemas.

IA sob pressão: segurança se torna prioridade estratégica

O episódio envolvendo o Claude acontece em um momento de forte expansão das ferramentas de inteligência artificial no mercado global. Ao mesmo tempo, cresce a preocupação com o uso indevido e com falhas estruturais nesses sistemas.

Casos anteriores já mostraram que modelos de IA podem ser explorados tanto para ataques cibernéticos quanto para desenvolvimento de malware, elevando o nível de atenção de empresas e governos.

A resposta rápida da Anthropic indica que a corrida pela inovação em IA agora caminha lado a lado com um novo imperativo: segurança por design.

fonte https://santotech.com.br/anthropic-corrige-falhas-claude-risco-seguranca-ia/

COMPARTILHE:

PUBLICIDADE