Desafios iniciais do chatbot
O novo chatbot de inteligência artificial da Food and Drug Administration, batizado de Elsa, foi apresentado como ferramenta capaz de acelerar a avaliação de remédios e dispositivos médicos. Anunciado em junho, o sistema entrou em fase de testes internos com a promessa de reduzir o tempo de aprovação, tarefa vista como prioritária pela agência.
A iniciativa ganhou apoio público do secretário de Saúde e Serviços Humanos, Robert F. Kennedy Jr., que classificou a solução como revolucionária. No entanto, funcionários ouvidos sob anonimato afirmam que a tecnologia produz “alucinações”, gerando estudos inexistentes, interpretando dados de forma equivocada e fornecendo respostas incorretas sobre rótulos de medicamentos.
Esses erros levaram equipes a suspender o uso do chatbot em análises de dossiês regulatórios, contrariando a expectativa inicial de integração ao protocolo de revisão clínica. Segundo relatos internos, o sistema tampouco recebeu acesso aos documentos confidenciais prometidos, limitando sua utilidade às tarefas administrativas.
O comissário da FDA, Marty Makary, declarou que Elsa permanece restrita a funções organizacionais, como redação de atas e e-mails, sem obrigatoriedade de adoção pelos servidores. A chefia de inteligência artificial da agência reconheceu o risco de alucinações, fenômeno comum em grandes modelos de linguagem, e defendeu mais tempo de treinamento antes de qualquer expansão de uso.
A limitação prática contrasta com a divulgação feita em artigo na revista Journal of the American Medical Association, assinado por Makary e por Vinay Prasad, diretor do Centro de Avaliação e Pesquisa de Biológicos da FDA. No texto, os autores apontaram a inovação em IA como eixo central para modernizar processos regulatórios e responder às críticas sobre demora nas decisões.
Após poucas semanas, a expectativa deu lugar à cautela. Técnicos relataram que Elsa não consegue vincular de forma confiável citações de periódicos médicos externos, requisito básico para sustentar pareceres científicos. Além disso, falhas de interpretação foram observadas em áreas de pesquisa da própria agência.
O problema é agravado pela confiança com que o chatbot apresenta conclusões incorretas. Funcionários relatam que respostas falsas surgem com justificativas detalhadas, induzindo ao erro se não houver verificação manual linha por linha. Diante desse quadro, analistas preferem recorrer aos métodos convencionais.
Apesar dos obstáculos, a liderança da FDA reforça que a implementação de IA continua na agenda estratégica. A agência opera um projeto-piloto de revisão científica assistida por algoritmos e avalia parcerias com centros acadêmicos para aperfeiçoar modelos específicos ao ambiente regulatório.

Imagem: mashable.com
Futuro do chatbot dentro da agência
O destino de Elsa depende agora de novos ciclos de teste, que incluem alimentação com bases de dados internas, ajustes no controle de citações e auditorias independentes. Somente após esses passos é que a ferramenta poderá retornar aos fluxos de trabalho relacionados à aprovação de medicamentos.
No cenário federal mais amplo, a administração Trump defende uma política de aceleração da adoção de IA, descrita como “America-first”. O Plano de Ação de IA divulgado pelo governo prevê a criação de Centros de Excelência apoiados pela FDA para validar e implantar tecnologias emergentes.
O documento reconhece, porém, que setores críticos, como a saúde, adotam inovações de forma lenta devido a desconfiança, complexidade regulatória e ausência de padrões claros de governança. Para superar barreiras, o plano sugere uma cultura de “experimentar primeiro”, sem deixar de lado a análise de riscos.
Especialistas em regulação manifestam preocupação com a possibilidade de que pressões por velocidade resultem em lacunas de supervisão. A controvérsia reforça a necessidade de equilibrar benefícios potenciais da IA com a segurança dos pacientes, objetivo central do trabalho da FDA.
Enquanto o debate avança, o chatbot Elsa permanece em fase de avaliação interna, focado em atividades administrativas. Qualquer uso em decisões que impactem a liberação de medicamentos dependerá de evidências concretas de confiabilidade, algo que os testes atuais ainda não conseguiram demonstrar.
Assim, a agência continua a explorar soluções tecnológicas, mas admite que, por ora, a revisão de dossiês regulatórios segue ancorada no trabalho humano, sustentado por dados verificados e pela experiência dos avaliadores.