Extensões maliciosas ameaçam chats com IA
Pesquisadores da LayerX identificaram, em 31/07/2025, às 15:30, um novo vetor de ciberataque que explora navegadores para capturar dados trocados com modelos de linguagem. Batizada de “Man in the Prompt”, a tática injeta comandos ocultos e extrai respostas fornecidas por sistemas como ChatGPT, Gemini, Copilot e Claude.
O método depende da instalação de extensões maliciosas capazes de acessar e modificar o conteúdo exibido na tela, área conhecida como Document Object Model (DOM). Quando a vítima digita um prompt no chatbot, a extensão intercepta a mensagem, insere instruções adicionais e copia a resposta gerada, mesmo que a informação deva ficar restrita.
Quem é alvo e por que o ataque preocupa
Usuários domésticos podem ser afetados, mas o risco cresce em ambientes corporativos que integram inteligência artificial a fluxos de trabalho. Nesses contextos, chatbots manipulam documentos internos, registros financeiros e dados estratégicos. Ao capturar esse material, invasores obtêm insumos para espionagem, extorsão ou novas invasões direcionadas.
Segundo a LayerX, o exploit foi testado em todos os grandes modelos de linguagem comerciais. As provas de conceito demonstradas no ChatGPT e no Gemini comprovaram que qualquer informação fornecida ao assistente pode ser replicada sem o conhecimento do usuário.
Como o ataque “Man in the Prompt” funciona
Etapas da infecção
1. O navegador é contaminado por uma extensão aparentemente legítima ou distribuída em lojas oficiais.
2. A extensão recebe permissões amplas para ler e alterar dados de página.
3. Durante o uso do chatbot, o código adiciona instruções ocultas ao prompt ou copia a saída exibida no DOM.
4. As informações capturadas são enviadas ao servidor controlado pelo invasor.
A intervenção ocorre de forma transparente. O usuário vê apenas a conversa original, sem saber que comandos adicionais foram processados pela IA nem que o conteúdo retornado foi desviado.
Impacto nos modelos de linguagem
Ferramentas baseadas em LLMs dependem do contexto fornecido pelo prompt para gerar respostas. Ao inserir texto extra, o criminoso pode induzir o assistente a revelar detalhes sensíveis, exportar trechos inteiros de documentos ou gerar resumos confidenciais. Dessa forma, o modelo de IA torna-se “cúmplice” inadvertido do vazamento.
Riscos para empresas que utilizam inteligência artificial
Dependência crescente de LLMs
Organizações adotam chatbots para revisão de contratos, análise de bases de dados e elaboração de relatórios. À medida que essa dependência se intensifica, a superfície de ataque se expande. A LayerX observa que os LLMs, treinados ou ajustados com dados proprietários, podem funcionar como “copilotos” de hackers quando manipulados por extensões maliciosas.
Possíveis consequências financeiras e legais
O vazamento de segredos industriais, informações de clientes ou dados regulamentados pode resultar em multas, perda de vantagem competitiva e danos de reputação. Além disso, a extração silenciosa dificulta a detecção, prolongando o período de exposição.
Medidas recomendadas para reduzir a exposição
Revisão de políticas de navegador
A LayerX indica que equipes de TI revisem as permissões concedidas a extensões. Complementos com acesso irrestrito ao DOM devem passar por auditoria rigorosa ou ser bloqueados em estações de trabalho que lidam com material sensível.
Processo de aprovação e monitoramento
Extensões devem seguir o mesmo ciclo de avaliação aplicado a qualquer software corporativo: análise de código, verificação de origem e monitoramento contínuo de comportamento. Logs de navegação podem sinalizar transmissões não autorizadas de dados.
Educação do usuário
Empregados precisam compreender que prompts inseridos em sistemas de IA não são intrinsecamente privados. Orientações claras sobre o tipo de dado permitido em conversas com chatbots reduzem a probabilidade de exposição.
Perspectivas para o uso seguro de IA
O “Man in the Prompt” demonstra que a camada de interface entre humano e máquina continua vulnerável. Enquanto LLMs evoluem, a proteção deve abranger não só modelos e servidores, mas também navegadores e extensões que mediam o acesso.
Sem controles adequados, as mesmas ferramentas que aceleram processos corporativos podem abrir caminho para comprometimentos de grande escala. A recomendação dos pesquisadores é equilibrar a adoção de IA com práticas robustas de segurança da informação.
{
“@context”: “https://schema.org”,
“@type”: “NewsArticle”,
“headline”: “Extensões maliciosas permitem ataque “Man in the Prompt” e vazam dados de chats com IA”,
“datePublished”: “2025-07-31T15:30:00-03:00”,
“dateModified”: “2025-07-31T15:30:00-03:00”,
“author”: {
“@type”: “Person”,
“name”: “Igor Almenara Carneiro”
},
“publisher”: {
“@type”: “Organization”,
“name”: “TecMundo”
},
“description”: “Relatório da LayerX detalha como extensões maliciosas exploram chats com IA em ataque conhecido como ‘Man in the Prompt’, colocando em risco dados corporativos.”,
“mainEntityOfPage”: {
“@type”: “WebPage”,
“@id”: “https://exemplo.com/extensoes-maliciosas-vazam-dados-chats-ia-man-in-the-prompt”
}
}