A regulação da inteligência artificial deixou de ser um tema distante e passou a ocupar posição central no debate jurídico e empresarial em todo o mundo. Diferentes regiões têm adotado modelos próprios de regulação, com impactos concretos sobre empresas, desenvolvedores, usuários e sobre a forma como a tecnologia é contratada, utilizada e supervisionada.
Ao longo desta série, composta por cinco capítulos, analisaremos as principais regiões do mundo e apresentaremos, de forma sintética, os modelos regulatórios adotados por cada uma delas. Ao final, destacaremos os impactos concretos dessas regulações na rotina das empresas.
No capítulo 1, falaremos da Europa. O AI Act – Regulamento (UE) 2024/1689 que estabelece regras harmonizadas em matéria de inteligência artificial – é o primeiro quadro jurídico abrangente sobre IA em nível mundial.
A Lei de IA institui um regime regulatório orientado por níveis de risco, impondo obrigações distintas a desenvolvedores e operadores de sistemas de inteligência artificial conforme a finalidade e o contexto de uso da tecnologia. São eles: risco inaceitável, alto risco, risco limitado e risco mínimo.
E qual o objetivo da lei? Por que ela foi criada?
Nos termos da próprio União Europeia, a Lei de IA busca assegurar que os cidadãos europeus possam confiar nos benefícios oferecidos por essa tecnologia. Embora a maioria dos sistemas apresente riscos reduzidos ou mínimos e possa contribuir para enfrentar diversos desafios sociais, determinadas aplicações envolvem riscos relevantes que precisam ser prevenidos para evitar efeitos indesejados.
Em muitos casos, não é simples compreender por que um sistema de IA tomou determinada decisão, formulou uma previsão ou executou uma ação específica. Essa opacidade pode dificultar a verificação de eventuais prejuízos injustos, como em processos de recrutamento e seleção ou na análise de pedidos de benefícios públicos.
Risco Inaceitável
São vedados todos os sistemas de inteligência artificial que representem ameaça manifesta à segurança, aos meios de subsistência ou aos direitos fundamentais das pessoas. Essas proibições entraram em vigor em fevereiro de 2025. Para tanto, a Lei de IA estabelece a proibição de oito práticas específicas, a saber:
Práticas de IA consideradas proibidas ou de alto risco
-
Manipulação e engano prejudiciais baseados em IA.
-
Exploração prejudicial de vulnerabilidades baseada em IA.
-
Pontuação social.
-
Avaliação ou previsão do risco de delitos criminais individuais.
-
Extração indiscriminada de dados da internet ou de imagens de câmeras de segurança para criar ou expandir bancos de dados de reconhecimento facial.
-
Reconhecimento de emoções em ambientes de trabalho e instituições de ensino.
-
Categorização biométrica para deduzir certas características protegidas.
-
Identificação biométrica remota em tempo real para fins de aplicação da lei em espaços de acesso público.
Alto Risco
As aplicações de inteligência artificial que possam implicar riscos significativos à saúde, à segurança ou aos direitos fundamentais são enquadradas como de alto risco.
Nessa categoria inserem-se, entre outros, os seguintes casos de uso:
Casos de uso de IA com potencial alto impacto
-
Componentes de segurança de IA em infraestruturas críticas (ex.: transporte), cuja falha poderia colocar em risco a vida e a saúde dos cidadãos.
-
Soluções de IA utilizadas em instituições de ensino podem determinar o acesso à educação e o rumo da vida profissional de uma pessoa (por exemplo, a correção de provas).
-
Componentes de segurança de produtos baseados em IA (ex.: aplicação de IA em cirurgia robótica).
-
Ferramentas de IA para emprego, gestão de trabalhadores e acesso ao trabalho autônomo (ex.: software de triagem de currículos para recrutamento).
-
Certos casos de uso de IA são utilizados para dar acesso a serviços essenciais, tanto privados quanto públicos (por exemplo, a análise de crédito, que impede os cidadãos de obterem empréstimos).
-
Sistemas de IA utilizados para identificação biométrica remota, reconhecimento de emoções e categorização biométrica (ex.: sistema de IA para identificar retroativamente um ladrão de lojas).
-
Casos de uso da IA na aplicação da lei que podem interferir nos direitos fundamentais das pessoas (ex.: avaliação da confiabilidade das provas).
-
Casos de uso da IA na gestão de migração, asilo e controle de fronteiras (ex.: análise automatizada de pedidos de visto).
-
Soluções de IA utilizadas na administração da justiça e em processos democráticos (ex.: soluções de IA para preparar decisões judiciais).
Os sistemas de IA classificados como de alto risco somente podem ser colocados no mercado após o cumprimento de exigências rigorosas de conformidade regulatória. São elas:
Requisitos para sistema de IA de alto risco
-
Sistemas adequados de avaliação e mitigação de riscos.
-
Alta qualidade dos conjuntos de dados que alimentam o sistema para minimizar os riscos de resultados discriminatórios.
-
Registro de atividades para garantir a rastreabilidade dos resultados.
-
Documentação detalhada que forneça todas as informações necessárias sobre o sistema e sua finalidade para que as autoridades avaliem sua conformidade.
-
Informações claras e adequadas para o responsável pela implantação.
-
Medidas adequadas de supervisão humana.
-
Alto nível de robustez, cibersegurança e precisão.
As regras para IA de alto risco entrarão em vigor em agosto de 2026 e agosto de 2027.
Risco de Transparência
Trata-se dos riscos relacionados à necessidade de transparência no uso da inteligência artificial. A Lei de IA estabelece deveres específicos de informação para assegurar que as pessoas saibam quando estão diante de um sistema automatizado, preservando a confiança e a possibilidade de escolha consciente. Assim, ao interagir com ferramentas como chatbots, o usuário deve ser claramente informado de que está se comunicando com uma máquina.
No caso da IA generativa, os fornecedores devem adotar mecanismos que permitam identificar o conteúdo produzido por sistemas de IA. Determinados materiais, como deepfakes e textos divulgados com finalidade informativa sobre temas de interesse público, devem ser rotulados de forma clara e visível.
As disposições relativas à transparência previstas na Lei de Inteligência Artificial passam a ser aplicáveis a partir de agosto de 2026.
Risco mínimo ou inexistente
A Lei de Inteligência Artificial não estabelece obrigações específicas para sistemas classificados como de risco mínimo ou inexistente. A maior parte das aplicações atualmente utilizadas na União Europeia enquadra-se nessa categoria, abrangendo, por exemplo, videogames que utilizam IA e filtros de spam.
Como conclusão, é possível afirmar que a Lei de Inteligência Artificial da União Europeia insere-se plenamente na tradição regulatória europeia de estabelecer marcos normativos estruturantes, orientados por direitos fundamentais e com forte vocação harmonizadora.
Assim como ocorreu com a regulamentação europeia de proteção de dados, o AI Act não se limita a organizar o mercado interno, mas projeta efeitos para além das fronteiras da União, fenômeno frequentemente descrito como o chamado “efeito Bruxelas”, pelo qual normas europeias acabam se tornando padrões globais de fato. Seja por sua aplicação extraterritorial, seja pela tendência de empresas multinacionais adotarem padrões europeus como referência global de conformidade, a regulação europeia tende a irradiar seus impactos para outras jurisdições.
Ao estruturar a disciplina com base em níveis de risco e ao combinar proteção, transparência e governança com incentivo à inovação, a União Europeia reforça sua posição como formadora de padrões internacionais em governança tecnológica. A reação do mercado, embora inicialmente marcada por preocupações quanto a custos e competitividade, vem evoluindo para um movimento de adaptação estratégica, com crescente internalização de práticas de compliance em inteligência artificial.
Nesse cenário, o AI Act tende a influenciar debates legislativos e modelos regulatórios em diversas jurisdições, consolidando-se como um dos principais referenciais globais na disciplina jurídica da inteligência artificial.