Agentes de IA: o que foi prometido para 2025
Em janeiro de 2025, o CEO da OpenAI, Sam Altman, destacou dois projetos que, segundo ele, redefiniriam o cotidiano corporativo: o aguardado GPT-5 e os chamados agentes de IA, sistemas capazes de executar tarefas completas em vez de apenas responder perguntas.
Altman escreveu que “em 2025, poderemos ver os primeiros agentes de IA entrarem na força de trabalho e mudarem materialmente a produção das empresas”. Na teoria, esses agentes atuariam como funcionários digitais, administrando desde rotinas administrativas até compras on-line.
Interesse empresarial cresce, mas a prática decepciona
O entusiasmo inicial foi confirmado por uma pesquisa da PwC, divulgada em maio de 2025. Metade das companhias consultadas planejava adotar algum tipo de agente de IA até dezembro, e 88% dos executivos pretendiam ampliar o orçamento de IA por causa da tecnologia.
No entanto, a experiência real ficou abaixo do esperado. Especialistas e imprensa publicaram avaliações quase unânimes de frustração. Entre os adjetivos citados para descrever os agentes: “glitchy … inconsistent” (Wired), “came off like a clueless internet newbie” (Fast Company), “reality doesn’t live up to the hype” (Fortune), “not matching up to the buzzwords” (Bloomberg) e “the new vaporware … overpromising is worse than ever” (Forbes).
Falhas recorrentes expostas por estudos
Um estudo da Universidade Carnegie Mellon, também de maio de 2025, analisou agentes em tarefas de escritório do mundo real. O Gemini Pro 2.5, da Google, falhou em 70% dos testes; o agente da OpenAI, alimentado pelo GPT-4o, errou em mais de 90% das vezes.
Os pesquisadores apontam que o problema não é pontual. Erros se acumulam à medida que um agente executa etapas sucessivas, fenômeno que amplifica alucinações e reduz a precisão quanto mais longa é a cadeia de ações.
Casos de “pânico” e erros catastróficos
Em um incidente divulgado pela Replit, um agente de IA realizou nove dias de trabalho de programação e terminou deletando todo o banco de dados de um cliente. A empresa classificou o episódio como “inaceitável”. Outros relatos semelhantes em 2025 motivaram o surgimento de uma startup que oferece seguro contra danos causados por agentes e levaram o Walmart a criar quatro “super-agentes” para supervisionar seus sistemas.
A consultoria Gartner prevê que 40% dos projetos de agentes atualmente em implantação serão cancelados em dois anos. Segundo a analista Anushree Verma, muitas iniciativas são “motivadas pelo hype e mal aplicadas”, subestimando custos e complexidade.
Limitações impostas por empresas e reguladores
Além das barreiras técnicas, companhias e órgãos reguladores vêm restringindo o alcance dos agentes. A Amazon, por exemplo, desativou a navegação automática de qualquer agente em seu marketplace, medida que preserva o controle da experiência de compra e reduz riscos de fraudes.
Pesquisadores identificaram outra vulnerabilidade: instruções ocultas em imagens que levam o agente a revelar dados confidenciais, como número de cartão de crédito. O receio de exposições em larga escala torna corporações reticentes em permitir transações totalmente automatizadas.

Imagem: mashable.com
GPT-5 pode resolver o problema?
Espera-se que o GPT-5 melhore o desempenho dos agentes da OpenAI, mas especialistas alertam que ganhos incrementais talvez não solucionem o cerne do desafio. Relatos preliminares indicam dificuldades da empresa em reunir avanços suficientes para justificar a nova versão.
Mesmo que o modelo reduza falhas, os agentes continuarão sujeitos a restrições de segurança impostas pelo próprio mercado. Assim, a transformação “material” prevista por Altman poderá ocorrer de forma mais lenta e controlada do que o discurso de janeiro sugeria.
Por que as expectativas se distanciaram dos resultados
O contraste entre promessas e realidade decorre de três fatores principais:
1) Complexidade acumulada: cada passo extra em uma cadeia de tarefas aumenta a chance de erro.
2) Custos de supervisão: a necessidade de monitorar agentes diminui parte do ganho de eficiência.
3) Risco reputacional: incidentes como bancos de dados apagados ou compras indevidas geram cautela institucional.
Enquanto executivos avaliam próximos passos, a indústria ajusta expectativas. Se o GPT-5 não reverter as falhas mais críticas, análises como as da Gartner tendem a prevalecer, adiando a adoção em larga escala de agentes de IA.
{
“@context”: “https://schema.org”,
“@type”: “NewsArticle”,
“headline”: “Agentes de IA tropeçam em 2025 e colocam GPT-5 sob escrutínio”,
“author”: {
“@type”: “Person”,
“name”: “Redação”
},
“language”: “pt-BR”,
“description”: “Estudo de desempenho, relatos de falhas e barreiras regulatórias indicam que agentes de IA ainda não entregam a produtividade prometida, colocando expectativas sobre o GPT-5 em debate.”
}