A Comissão Especial da Câmara dos Deputados que discute a regulação da inteligência artificial se reuniu nesta terça-feira (10) para debater a nova versão preliminar do substitutivo ao PL 2338/2023. Apresentado pelo relator, Aguinaldo Ribeiro, do PP da Paraíba, o texto propõe uma governança descentralizada, com regulação exercida por órgãos já existentes. Também prevê uma classificação de risco — mínimo, alto ou inissível — com base no impacto dos sistemas sobre direitos fundamentais.
Embora reforce a ideia de governança setorial, o projeto ainda não detalha instrumentos de fiscalização nem critérios objetivos de aplicação. Permanecem ausentes temas considerados centrais por especialistas, como a definição de responsabilidades em caso de danos, exigências mínimas de transparência e diretrizes para sistemas com potencial de manipulação informacional.
Também não há qualquer menção à inteligência artificial generativa — usada na criação de textos, imagens ou sons. Segundo integrantes da comissão, o tema estaria fora do escopo imediato da proposta.
A proposta, apesar das lacunas, é vista por alguns setores como um ponto de partida viável. “O Projeto de Lei 2338 é um importante ponto de partida para o debate sobre regulação de IA no Brasil. Ele traz um desenho baseado na proteção de direitos, mitigação de riscos e fomento à inovação, dentro de um arranjo descentralizado de governança, se apoiando nos órgãos já existentes no Brasil. Olha para experiências internacionais e procura adaptá-las à realidade brasileira”, disse Renata Mielli, coordenadora do Comitê Gestor da Internet no Brasil, à coluna.
Ao longo das reuniões, a comissão ouviu sete convidados. Dentre eles, o professor Cléber Zanchettin, da Sociedade Brasileira de Computação, que destacou uma série de pontos que, segundo ele, ainda precisam ser incorporados. Para ele, o AI Act europeu é um bom ponto de partida, mas deve ser ajustado ao contexto brasileiro. Ele demonstrou preocupação com as formas de mitigação de riscos e a ausência de mecanismos práticos de supervisão. “Em sistemas críticos, a gente deveria ter uma forma real de intervenção, uma válvula de escape”, afirmou.
Zanchettin defendeu que a regulação avance em critérios de qualidade e representatividade dos dados, especialmente em setores como saúde, educação, finanças e recursos humanos. Também sugeriu mais clareza sobre a responsabilização de fornecedores, usuários e governos. “Como garantir precisão e, principalmente, resiliência em sistemas autônomos? Como monitorar as parcerias público-privadas essenciais para o desenvolvimento dessas tecnologias?”, questionou.
A proposta brasileira tem sido apresentada como inspirada no modelo europeu de regulação da IA, consolidado no AI Act de 2024. No entanto, a aproximação entre os dois textos se limita à adoção de uma classificação por risco. Fora isso, as semelhanças são mais retóricas do que estruturais. Enquanto o modelo europeu centraliza a regulação em um órgão específico — o AI Office — e impõe regras detalhadas para tecnologias como IA generativa, o texto brasileiro opta por uma governança descentralizada, sem mecanismos claros de coordenação entre as agências e sem menção à modelos de referência.
A comissão deve se reunir novamente na terça-feira, 17, às 13h30, para a deliberação de requerimentos. A expectativa é que, nas próximas semanas, a discussão avance no sentido de consolidar uma base regulatória com arcabouço definido.