top of page

ENTRE A INOVAÇÃO E A SEGURANÇA: O PAPEL DO PL 2.338/2023 NA REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL NO BRASIL

por labsul | jun 25, 2025 | Publicações

0 Comentários 

ENTRE A INOVAÇÃO E A SEGURANÇA: O PAPEL DO PL 2.338/2023 NA REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL NO BRASIL

Regular uma tecnologia em seus estágios iniciais é sempre um desafio complexo. Nessa fase, os dados sobre riscos e impactos sociais ainda são escassos, o que dificulta a elaboração de normas precisas. Trata-se do famoso dilema de Collingridge: no início, há pouca informação, mas muito espaço regulatório; após a difusão, há muita informação, mas pouco espaço para intervenções regulatórias.

 

No que concerne à Inteligência Artificial (IA), estamos diante de um desafio global que coloca a segurança e o desenvolvimento tecnológico em conflito. Por mais que haja certo esforço para aproximar os dois lados, é provável que as diferentes visões de mundo persistam, tornando improvável um consenso entre os “especialistas” sobre os riscos da IA.

 

No Brasil, acompanhamos a evolução do PL 2338/2023, que teve origem no Senado Federal a partir de uma ampla discussão conduzida pela CJSUBIA — Comissão de Juristas responsável por subsidiar a elaboração de um substitutivo sobre inteligência artificial no país.

 

Em um artigo recente sobre o tema, Arvind Narayanan e Sayash Kapoor apresentaram sua visão da IA como uma tecnologia “normal”, afastando-se de visões utópicas e distópicas — sem, contudo, subestimar seu impacto. Mas o que isso significa, na prática? A velocidade da inovação é diferente da velocidade de adoção e difusão de uma tecnologia. Esta última é limitada pela capacidade de indivíduos, organizações e instituições de se adaptarem à tecnologia.

 

Na prática, entender a IA como uma tecnologia normal (e não como uma superinteligência que dominará o mundo) permite que o trabalho regulatório seja conduzido com mais cautela, já que a tecnologia se integrará progressivamente à vida social e econômica — como ocorreu com outras tecnologias de uso geral, como a energia elétrica. Isso abre espaço para uma abordagem regulatória resiliente que combine planejamento antecipado com adaptação contínua.

 

Gary E. Marchant e Yvonne A. Stevens escreveram sobre isso em “Resilience: A New Tool in the Risk Governance Toolbox for Emerging Technologies”, ao preverem que abordagens tradicionais de gestão de risco ex ante enfrentam dificuldades para oferecer uma governança adequada em tecnologias emergentes, devido à dificuldade de prever cenários de risco realistas.

 

Ao examinar o PL 2338/2023, observa-se uma predominância de medidas de governança ex ante, tais como: classificação de risco (art. 12); documentações obrigatórias (art. 18, I, alíneas “a”, “b”, “c” e “d”; art. 18, II, alíneas “a”, “b” e “c”); medidas para mitigar e prevenir vieses discriminatórios (art. 18, I, alínea “e”); requisitos de transparência (art. 18, II, alínea “f”); auditabilidade (art. 18, II, alínea “b”); interpretabilidade (art. 18, II, alínea “d”), e avaliação de impacto algorítmico (art. 25).

 

Boa parte dessas obrigações ex ante encontra paralelo no AI Act, demonstrando a forte inspiração do documento europeu na proposta brasileira. Uma pesquisa exploratória do Instituto de Tecnologia e Sociedade do Rio demonstrou que, das 39 obrigações descritas no marco europeu, 13 têm paralelo no marco brasileiro, indicando uma comparabilidade de cerca de um terço das obrigações europeias com equivalência na proposta nacional.

 

Entretanto, é necessário reconhecer as profundas diferenças entre os cenários europeu e brasileiro no desenvolvimento da IA. O Brasil anunciou o Plano Brasileiro de Inteligência Artificial (PBIA) 2024–2028, projetando um investimento de 4 bilhões de dólares em quatro anos. Enquanto isso, a União Europeia lançou o InvestaAI, com previsão de investimento de 216 bilhões de dólares nos próximos anos. Enquanto isso, os Estados Unidos acumulam, entre 2013 e 2024, um investimento aproximado de 474 bilhões de dólares, enquanto a China investiu, no mesmo período, cerca de 119 bilhões de dólares no desenvolvimento da tecnologia.

 



Fonte: Artificial Intelligence Index Report 2025. Stanford Institute for Human-Centered Artificial Intelligence, 2025.

 

Como mencionado nas primeiras linhas, entender a IA como uma tecnologia que se integrará progressivamente à vida social e econômica não significa subestimar os seus riscos. Não é objetivo deste artigo defender a completa ausência de obrigações de governança ex ante, privilegiando o desenvolvimento per se, independentemente da segurança.

 

No entanto, a decisão regulatória brasileira deve considerar as dificuldades que o país enfrentará no cenário global de disputa — especialmente quando o PL 2338/2023, de forma louvável, prevê medidas ex post que protegem os direitos humanos ao mesmo tempo em que permitem o desenvolvimento tecnológico.

 

Mecanismos como o monitoramento contínuo dos sistemas de IA (art. 15, § 1º), a comunicação de incidentes graves (art. 42), a supervisão e fiscalização (arts. 45 a 52) e o ambiente regulatório experimental (art. 55), também conhecido como sandbox regulatório, favorecem o avanço da tecnologia ao mesmo tempo em que permitem a atuação da autoridade diante de cenários de riscos reais (e não apenas especulativos), mitigando eventuais danos não previstos e resultados adversos.

 

Importante acrescentar que o PL 2338/2023 introduz um relevante rol de direitos das pessoas e grupos afetados por sistemas de IA de alto risco (art. 6º), incluindo o direito à explicação, contestação e revisão humana, inclusive supervisão humana (art. 8º), com o objetivo de prevenir ou minimizar riscos aos direitos humanos.

 

Essas medidas de governança ex post permitem o desenvolvimento da tecnologia sem abrir mão do cuidado com os direitos humanos, posicionando o Brasil no cenário regulatório global, especialmente considerando que o país já enfrenta menor volume de investimentos na área.

 

Impedir o desenvolvimento de soluções nacionais, que poderiam nos tornar menos dependentes das grandes potências tecnológicas, por meio do impacto regulatório, não parece ser um caminho desejável para um país em desenvolvimento que busca protagonismo no cenário mundial.

 

A regulação da inteligência artificial no Brasil, tal como proposta no PL 2338/2023, representa um avanço importante na construção de um marco normativo voltado à proteção de direitos humanos e à promoção da inovação tecnológica. No entanto, para que esse esforço produza os efeitos desejados, é essencial que o país adote uma abordagem regulatória equilibrada, que considere tanto as especificidades do contexto nacional quanto as assimetrias globais no desenvolvimento e financiamento da tecnologia.






Sobre o autor: Ricardo de Souza Mello Filho

Pesquisador do LABSUL

Mestre em Direito pela UNESC

Sócio Baldin Mello

Advogado, Professor e Consultor


Enviar Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Recentes

EDITAL DE CONVOCAÇÃO ASSEMBLEIA GERAL ORDINÁRIA

ONU ADOTA CONTRIBUIÇÕES DO LABSUL SOBRE DISCURSO DE ÓDIO ONLINE

METAVERSO NOS RELATÓRIOS COLABORATIVOS DO FÓRUM ECONÔMICO MUNDIAL

TSE, IA E PROPAGANDA ELEITORAL: AVANÇOS E OBSTÁCULOS REGULATÓRIOS

LABSUL PARTICIPA DE ARTIGO PUBLICADO NO SITE DAS NAÇÕES UNIDAS BRASIL

A GUERRA DA DESINFORMAÇÃO E A INTERFERÊNCIA ESTRANGEIRA NA AMÉRICA LATINA

LABSUL PARTICIPA NO FÓRUM ECONÔMICO MUNDIAL DE RELATÓRIO SOBRE INTEROPERABILIDADE NO METAVERSO

LABSUL ENVIA À ONU CONTRIBUIÇÃO SOBRE DISCURSO DE ÓDIO ON-LINE

Comentários

Marcela

30 de abril de 2024

Exceptional

bottom of page