Marco Legal da IA precisa de mais tempo para não nascer obsoleto, diz Adriana Ventura

A parlamentar, que é vice-presidente da Comissão Especial da Câmara dos Deputados criada para debater o tema, diz que a proposta, prevista para ser votada neste mês, tem pontos que podem sufocar a inovação

Mariana Missiaggia
14/Abr/2026
  • btn-whatsapp
Marco Legal da IA precisa de mais tempo para não nascer obsoleto, diz Adriana Ventura

A caminho de definir as regras do jogo para o uso da Inteligência Artificial (IA), o Marco Legal da IA no Brasil vem sendo discutido no âmbito do Projeto de Lei 2.338/2023, que atualmente tramita na Câmara dos Deputados e tem expectativa para ser votado neste mês de abril.

Buscando criar um equilíbrio entre a inovação tecnológica e a proteção do cidadão, a deputada federal Adriana Ventura (Novo-SP) explica que a proposta visa à gestão de riscos: quanto mais perigosa for a sua aplicação, mais rigorosas serão as exigências para empresas e desenvolvedores.

Ao citar que o PL 2.338 mudará a forma como interagimos com o digital, transformando princípios éticos em obrigações legais, a deputada aponta que este novo marco legal não nasce isolado, ele se conecta diretamente a três pilares que já fazem parte do dia a dia das empresas: proteção de dados (LGPD), direitos autorais e segurança/regulação setorial.

Entretanto, enquanto parte do Congresso Nacional espera por uma regulação rápida da IA, Adriana, que ocupa a vice-presidência da Comissão Especial sobre o tema, sinaliza que o texto atual ainda carece de "escritura técnica" e diálogo setorial. Embora reconheça o esforço legislativo, para a deputada, o ambiente para uma aprovação em abril ainda não está maduro.

Apesar das 31 reuniões e 180 convidados ouvidos pela Comissão, a deputada acredita que o impacto da IA em setores estratégicos, como o agronegócio, saúde e indústria, ainda não foi totalmente mapeado.

"O risco de o Brasil errar a mão e criar uma regulação que já nasce obsoleta ou excessivamente onerosa é real. Uma regulação mal calibrada pode até nascer bem-intencionada, mas acabaria sufocando inovação e afastando investimento", afirma.

Para a parlamentar, o foco deve ser a escuta qualificada. Ela defende que não basta discutir princípios genéricos; é preciso entender como o texto afetará o custo de conformidade para micro e pequenas empresas.

Ao analisar o conteúdo do projeto, a deputada faz uma distinção entre os pilares éticos e as amarras burocráticas. Citando o que, na sua opinião, deveria ser mantido, ela aponta a proteção de direitos e transparência proporcional; a responsabilização adequada e segurança jurídica; a supervisão humana em contextos sensíveis; e o incentivo à inovação e combate à discriminação. Em relação aos direitos autorais, ela diz que o tema deve ser tratado em fórum próprio para não travar o treinamento de modelos de IA nacionais.

Sobre os pontos que ainda deveriam ser revisados, ela cita a classificação de alto risco e critica a abrangência atual, que, segundo a deputada, pode punir usos simples ou de baixo potencial lesivo. A deputada ainda defende que o desenvolvedor, o distribuidor e o usuário final não podem ter o mesmo peso regulatório; por isso, seria necessário diferenciar com mais clareza quem desenvolve a tecnologia e quem apenas utiliza uma ferramenta pronta.

Já sobre o Sandbox Regulatório, a deputada critica o modelo atual por manter a carga total de responsabilidade, mesmo em ambientes experimentais, o que, segundo ela, "esvazia o sentido do instrumento e aposta em um instrumento efetivamente funcional."

De acordo com Adriana, o modelo que mais influenciou o PL 2.338 foi o AI Act da União Europeia, especialmente na lógica de regulação por risco. No entanto, ela aponta que o projeto brasileiro corre o risco de copiar a rigidez que a própria Europa já tenta flexibilizar.

"A própria Europa já está ajustando na implementação desse modelo para simplificar regras, dar mais previsibilidade e reduzir custos de conformidade, sobretudo para empresas menores e para casos de sobreposição com regulações setoriais", diz a deputada. "Isso não significa abandonar a regulação, mas reconhecer que, numa tecnologia tão dinâmica, o excesso de detalhamento pode exigir correções muito cedo. Quanto mais detalhista for a lei, mais rápido ela envelhecerá."

Para a parlamentar, a discussão principal deveria ter foco em diretrizes que não mudam com a tecnologia, que permitem que cada área adapte as suas regras e na aplicação de exigências proporcional ao perigo real. Apesar das críticas ao texto atual, a deputada elogia a condução dos trabalhos sob a presidência da deputada Luisa Canziani (PSD-PR) e a relatoria de Aguinaldo Ribeiro (PP-PB). Para ela, a maior conquista da Comissão foi organizar a complexidade do debate.

"A comissão acertou ao abrir o debate, mas esse próprio processo revelou que ainda precisamos de mais subsídios técnicos para chegar a um texto equilibrado, atual e preparado para o futuro e, assim, termos competitividade brasileira frente a potências tecnológicas."

Modelo próprio - Defendendo que o Brasil deve aproveitar sua capacidade de inovação para construir um modelo próprio, Bruno Bioni, especialista em privacidade e proteção de dados da ESPM, se diz favorável a uma identidade regulatória própria. Para ele, o Brasil não deve copiar o modelo europeu, considerado rígido demais, nem o norte-americano, visto como "desgovernado" e capaz de acentuar desigualdades. "O objetivo é uma regulação que gere progresso e prosperidade adequados à realidade brasileira."

Bioni também legitima uma proposta de regulação descentralizada, em que, em vez de se criar uma agência única de IA, se usaria a estrutura regulatória já existente. Agências como a ANS (saúde) e a ANATEL (telecomunicações) continuariam regulando a IA em seus respectivos setores, sob a coordenação da Autoridade Nacional de Proteção de Dados (ANPD).

Ao defender que a regulação pode acelerar a inovação no Brasil, Bioni parte da provocação de que o Brasil pode usar o marco legal da IA para consolidar sua autonomia tecnológica e promover a livre iniciativa com solidariedade social. Ele cita o exemplo do Pix, que tem sido melhorado para conter fraudes, para mostrar que uma regulação forte e bem estruturada pode, na verdade, impulsionar a inovação e garantir soberania nacional, servindo de modelo para o que se pretende alcançar com a IA.

Nas palavras do especialista, a grande inovação do Pix não passa somente pela redução das taxas bancárias, mas pela soberania dos dados de todas as transações financeiras, que fica resguardada por meio de estrutura e tecnologia brasileiras. 

"O Pix aconteceu com uma regulação bastante forte do Banco Central e isso quebra com esse antagonismo de que regulação pode frear inovação. A regulação pode, sobretudo, trazer resiliência para inovação. Temos que olhar para esse projeto sem medo", disse o especialista.

LEIA MAIS

O futuro agora: NRF 2026 discute o passo seguinte da IA no varejo

Marcas tradicionais dos EUA viram o jogo e conquistam a Geração Z no digital

 

IMAGEM: Kayo Magalhães/Câmara dos Deputados

O Diário do Comércio permite a cópia e republicação deste conteúdo acompanhado do link original desta página.
Para mais detalhes, nosso contato é redacao@dcomercio.com.br .

 

Store in Store

Carga Pesada