Notícias

Ataques com IA Avançam: Google Revela Como Criminosos Estão “Clonando” Modelos e Explorando APIs

Ataques com IA Avançam: Google Revela Como Criminosos Estão “Clonando” Modelos e Explorando APIs

Imagem gerada por IA

O Google Threat Intelligence Group (GTIG) identificou um aumento significativo no uso adversarial de inteligência artificial (IA) por atores maliciosos ao longo do último trimestre de 2025, segundo o mais recente relatório AI Threat Tracker: Distillation, Experimentation, and (Continued) Integration of AI for Adversarial Use, publicado no blog oficial do Google Cloud.

O documento aponta que grupos de ataque, incluindo criminosos e atores patrocinados por governos, vêm integrando IA em várias etapas do ciclo de ataques cibernéticos — desde reconhecimento e engenharia social até desenvolvimento de malware e extração de lógica de modelos.

📌 Principais tendências e técnicas ofensivas

O relatório mostra que, embora muitos atores ainda não desenvolvam modelos de IA personalizados para fins maliciosos, eles têm explorado modelos maduros existentes, como o Gemini, em ataques mais sofisticados.

Uma das táticas emergentes é o chamado ataque de “distillation” (destilação) — uma forma de extração de conhecimento que tenta aproveitar acesso legítimo a APIs de IA para reproduzir características e lógica de modelos de alto valor, essencialmente clonando capacidades proprietárias sem invadir sistemas diretamente.

Além disso, infraestrutura aberta e ferramentas de IA de terceiros estão sendo aproveitadas para montar serviços automatizados de geração de conteúdo ou código malicioso, criando um maior risco de exposição e abuso de chaves de API e recursos de IA.

Riscos associados à integração de IA em operações maliciosas

O GTIG identificou que essas abordagens podem permitir que invasores:

  • acelerem fases de coleta de informações e reconhecimento;
  • criem campanhas de engenharia social e phishing mais sofisticadas;
  • gerem código malicioso ou auxiliem no desenvolvimento de exploits;
  • explorem falhas em ferramentas de IA de código aberto para obter acesso indevido a APIs;
  • facilitem um mercado negro de serviços e chaves de acesso associados;

Esses vetores representam um risco tanto operacional quanto estratégico para empresas com grandes recursos de IA e infraestrutura conectada.

Mitigações e práticas recomendadas

Para enfrentar essas ameaças, o relatório destaca a importância de:

Segurança de chaves e credenciais

Proteger chaves de API contra roubo e uso indevido, aplicando autenticação forte, rotação frequente e controles de acesso rigorosos.

Safeguards e políticas de uso responsável

Aplicar as AI Principles e práticas de segurança robustas no desenvolvimento e uso de modelos, garantindo guardrails que impeçam abusos e forneçam respostas neutras ou bloqueadas em contextos maliciosos.

Fortalecimento de modelos e detecção de anomalias

Testar continuamente os modelos contra vetores de ataque (como prompt injection), monitorar abuso e incorporar mecanismos automáticos de detecção para mitigar tentativas de exploração.

Frameworks de segurança e colaboração

Utilizar e implementar frameworks como o Secure AI Framework (SAIF) que fornecem diretrizes, avaliação e ferramentas para construir IA de forma segura e responsável.


O panorama global de IA adversarial

O relatório coloca em perspectiva que o uso de IA em operações ofensivas ainda está em fase emergente, mas mostra uma tendência clara de evolução e experimentação, com atores maliciosos integrando capacidades de IA em múltiplos pontos de suas campanhas. Esse padrão indica que a segurança tradicional deve evoluir para defesas adaptativas baseadas em IA e inteligência de ameaças em tempo real.


Contexto para empresas e desenvolvedores

Dado que IA se tornou uma ferramenta estratégica em ambientes corporativos e governamentais, a exposição desses vetores adversariais reafirma a necessidade de:

  • Revisar e fortalecer políticas de utilização de APIs de IA;
  • Implementar monitoramento proativo sobre fluxos de uso e abuso;
  • Capacitar equipes de segurança com expertise em IA defensiva;
  • Investir em cooperação entre setores para troca de inteligência de ameaça.

Essas práticas são cruciais para reduzir a superfície de ataque em um cenário em que IA — além de uma tecnologia de produtividade — está se tornando uma superfície de ameaça avançada e dinamicamente explorada.

fonte https://santotech.com.br/ataques-com-ia-avancam-google-revela-como-criminosos-estao-clonando-modelos-e-explorando-apis/

COMPARTILHE:

PUBLICIDADE