Google confirma assinatura do código de conduta da UE para IA
A Alphabet, controladora do Google, anunciou que vai assinar o código de conduta da União Europeia destinado à inteligência artificial. A confirmação foi feita nesta quarta-feira (30) pelo presidente de assuntos globais da companhia, Kent Walker.
O documento, elaborado por 13 especialistas independentes, tem caráter voluntário e busca orientar as empresas no cumprimento futuro da Lei de Inteligência Artificial do bloco, conhecida como AI Act.
Segundo Walker, a adesão ocorre para garantir segurança jurídica enquanto as normas definitivas não entram em vigor. O executivo também ocupa o cargo de diretor jurídico da Alphabet.
Preocupações levantadas pela companhia
Impacto em inovação e cronogramas
Mesmo apoiando o texto, o Google declarou temer que algumas exigências possam retardar o desenvolvimento e a implantação de soluções de IA na Europa.
Entre os pontos citados estão eventuais desvios em relação à legislação de direitos autorais, procedimentos que prolonguem processos de aprovação e solicitações capazes de expor segredos comerciais.
Para a empresa, tais fatores poderiam limitar a competitividade do continente diante de mercados como Estados Unidos e China.
Objetivo de garantir acesso seguro
Walker afirmou que a assinatura é feita na expectativa de que o código assegure o acesso de cidadãos e empresas europeias a ferramentas de IA seguras e de alta qualidade.
O executivo ressaltou que o compromisso vale enquanto os detalhes finais da legislação são discutidos dentro das instituições europeias.
A versão definitiva do AI Act ainda precisa ser ratificada pelo Parlamento e pelo Conselho do bloco.
Panorama das regras europeias para inteligência artificial
Diretrizes apresentadas em julho
No dia 10 de julho, autoridades da UE divulgaram orientações específicas para sistemas avançados de IA. As novas regras exigem maior transparência sobre dados de treinamento, proteção à segurança pública e respeito a direitos autorais.
Os desenvolvedores terão de identificar materiais usados no treinamento de modelos e avaliar riscos de uso indevido, como a criação de armas biológicas.
Além disso, precisarão demonstrar medidas de mitigação antes de comercializar produtos ou disponibilizar APIs amplas de IA generativa.
Prazos definidos pelo bloco
O regulamento entrará em vigor em 2 de agosto de 2025, mas as penalidades por descumprimento só poderão ser aplicadas a partir de agosto de 2026.
A Comissão Europeia, braço executivo da UE, será responsável por fiscalizar e determinar eventuais sanções administrativas ou financeiras.
Durante o período de transição, o código de conduta atuará como referência para boas práticas de conformidade.
Reação de outras gigantes de tecnologia
OpenAI já aderiu; Meta recusou
Antes do Google, a OpenAI havia anunciado a participação no acordo voluntário. A desenvolvedora do ChatGPT considera o texto uma orientação útil enquanto adapta seus sistemas às exigências do AI Act.

Imagem: bluestork via olhardigital.com.br
A Meta, por outro lado, optou por não assinar o documento, alegando incertezas jurídicas relacionadas à interpretação das regras.
Representantes da empresa manifestaram preocupação com eventuais sobreposições regulatórias e potenciais conflitos com suas operações globais.
Microsoft deve confirmar participação
Brad Smith, presidente da Microsoft, declarou no início de julho à agência Reuters que a companhia provavelmente seguirá o mesmo caminho do Google e da OpenAI.
Segundo o executivo, aderir ao código facilita o alinhamento prévio dos processos internos de governança, reduzindo riscos de não conformidade futura.
Até o momento, a empresa ainda não oficializou a assinatura, mas manteve sinalização positiva ao longo das negociações com a Comissão Europeia.
Objetivos e alcance do código de conduta
Segurança jurídica para empresas
O principal objetivo do documento é oferecer clareza sobre como as companhias podem atender às exigências do futuro AI Act sem interromper projetos em andamento.
O texto cobre temas como avaliação de riscos, governança de dados, relatórios de impacto e mecanismos de auditoria independentes.
Ao cumprir essas etapas, os signatários pretendem antecipar adaptações e demonstrar responsabilidade no uso de tecnologias emergentes.
Possível padrão internacional
A UE busca posicionar o AI Act como modelo regulatório global, repetindo a estratégia adotada com o Regulamento Geral de Proteção de Dados (GDPR).
Ao envolver grandes desenvolvedores, o bloco pretende influenciar práticas fora de suas fronteiras e incentivar outras jurisdições a adotarem requisitos semelhantes.
Com Estados Unidos e China dominando o mercado, as autoridades europeias avaliam que normas robustas podem equilibrar a competição e proteger consumidores.
Próximos passos
Nos meses seguintes, os signatários do código deverão apresentar relatórios periódicos demonstrando avanços na implementação de cada diretriz.
Os documentos serão avaliados por órgãos técnicos da Comissão Europeia, que podem sugerir ajustes antes da entrada em vigor do AI Act.
As sanções por descumprimento, previstas para agosto de 2026, encerram o período de adaptação definido pelas autoridades do bloco.