Macron defende liderança regulatória europeia em IA e coloca o Brasil diante de uma escolha estratégica

07 de abril de 2026 4 minutos
shutterstock

Na cúpula de inteligência artificial realizada em Nova Délhi, o presidente francês Emmanuel Macron reafirmou a ambição normativa europeia com uma declaração que não deixava margem para ambiguidade. “Estamos determinados a continuar moldando as regras do jogo… com nossos aliados como a Índia”, disse Macron. A frase ecoa além do subcontinente asiático. Para o Brasil, que atravessa sua própria transição regulatória em tecnologia, ela carrega implicações que merecem escrutínio analítico.

A União Europeia consolida sua posição como arquiteta dos padrões globais de governança tecnológica. O AI Act europeu, adotado em 2024 e em implementação por fases, tornou-se a referência mais citada por legisladores ao redor do mundo e Brasília não é exceção. O PL 2338/2023, aprovado pelo Senado brasileiro em dezembro de 2024 e agora em análise na Câmara dos Deputados, foi explicitamente inspirado na legislação europeia, replicando sua abordagem baseada em classificação de risco, exigências de transparência e responsabilização dos desenvolvedores.

O padrão já é familiar. A LGPD, sancionada em 2018, seguiu de perto o GDPR europeu e o resultado foi revelador. A prontidão do mercado permanece baixa: a maioria das organizações ainda carece de inventários formais de IA ou conselhos de supervisão, o que sinaliza que a capacidade de conformidade não acompanhou a ambição regulatória. O descompasso não é acidental. Regras desenhadas para economias com alta institucionalidade e grandes departamentos jurídicos corporativos geram custos assimétricos quando transplantadas para contextos distintos.

O Brasil está em uma encruzilhada. O Plano Brasileiro de Inteligência Artificial 2024-2028 apresenta uma visão ambiciosa de usar a IA para expandir a economia, melhorar a vida dos cidadãos e avançar a liderança tecnológica do país. O governo federal alocou aproximadamente R$ 23 bilhões para infraestrutura computacional nacional e modelos de linguagem em português, numa estratégia que busca soberania digital e não mera dependência de padrões importados.

O risco central não está em regular, mas em como se regula. O PL 2338/2023 visa estabelecer diretrizes operacionais, proteger direitos humanos e prever penalidades por descumprimento, adotando uma abordagem baseada em risco. Trata-se de um avanço legítimo. O problema surge quando a arquitetura regulatória, concebida para o mercado único europeu, é adotada sem calibragem para o ecossistema de startups brasileiro, composto por empresas que não dispõem da mesma estrutura de compliance que uma multinacional com sede em Frankfurt ou Amsterdã.

Macron também respondeu às críticas de que a Europa regula IA em detrimento de sua competitividade, o que revela que o próprio debate interno europeu está longe de encerrado. Em Washington, a postura é oposta: a administração Trump rejeitou explicitamente a governança global de IA, abrindo um vácuo geopolítico que Bruxelas trata como oportunidade de liderança.

Para o Brasil, o cenário exige precisamente o que é mais difícil politicamente: distinção. Regular inteligência artificial é necessário, pois os riscos de viés algorítmico, concentração de poder econômico e uso indevido de dados são reais e documentados. Mas transformar a regulação europeia em modelo de importação automática significa aceitar os trade-offs pensados para outra realidade econômica. A lei prevê multas de até R$ 50 milhões ou 2% do faturamento da empresa, valores que podem ser absorvidos por grandes plataformas globais, mas que representam um obstáculo existencial para empresas menores.

Macron também defendeu uma “terceira via” no desenvolvimento de IA, independente da dominância americana ou chinesa. A Europa tem massa crítica para construí-la. O Brasil, ao seguir esse caminho sem adaptação, corre o risco de importar a ambição sem as condições que a sustentam.

Europa | Brasil

Busca