O texto que será apresentado depois de dois anos de análise e sua primeira fase será discutida pelos senadores
Por Misto Brasil – DF
O relator do projeto que regulamenta a Inteligência Artificial (IA), senador Eduardo Gomes (PL-TO), avisou hoje (08) que o texto estará pronto para votação ainda neste ano.
A proposta será inicialmente votada na Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA) e depois pelo plenário do Senado Federal.
Assista a entrevista logo abaixo.
O texto será apresentado depois de dois anos de análise e sua primeira fase será discutida pelos senadores e depois pela Câmara dos Deputados. “É um assunto bastante complexo“, justificou o relator.
A declaração foi dada após a palestra que fez para os empresários do Grupo Lide, durante a reuniáo-almoço que é regularmente organizada pelo empresário Paulo Octávio.
Mais de dez alterações no relatório foram feitas pelo relator.
O senador afirmou que o texto passa a permitir mineração de dados para combater ilícitos civis e criminais e aumenta a proteção de segredos comerciais e industriais.
A complementação de voto do Projeto de Lei (PL) 2.338/2024 foi entregue pelo relator
A nova análise foi necessária porque a proposta – autoria do senador Rodrigo Pacheco (PSD-MG) -, recebeu 30 emendas depois da apresentação do relatório em 18 de junho.
Segundo o relator, muitos segmentos da sociedade que são impactados positiva ou negativamente pela IA ainda desejam novas alterações.
Mas ele defendeu que a regulação deve ter caráter genérico. Para Eduardo, uma futura regulamentação será melhor que as normas atualmente aplicáveis. Ele citou a preservação de direitos autorais de obras que são utilizadas por IA para gerar outras obras, por exemplo.
“Essa é a primeira etapa do processo. Se as modificações não forem suficientes, vamos continuar negociando, mas precisamos negociar avançando”, de acordo com uma declaração dada em julho.
Como está previsto no projeto
O projeto cria regras diferentes para faixas regulatórias definidas de acordo com o risco à sociedade.
O sistema de IA, assim, pode ser considerado de “risco excessivo”, que possui regulação mais rigorosa; de “alto risco”; ou não estar em nenhuma das duas categorias.
Para determinar o risco, um sistema de IA deverá passar por uma avaliação preliminar feita pelos próprios desenvolvedores, fornecedores ou operadores.
O projeto impede a implementação e o uso de sistemas com determinadas características ou finalidades categorizadas como de “risco excessivo”.
É o caso, por exemplo, de armas autônomas, que podem atacar alvos sem intervenção humana.
A pesquisadora da organização Coalizão Direitos na Rede (CDR), Paula Guedes, defendeu a proibição dos chamados de sistemas de identificação biométrica para uso em segurança pública ou Justiça.
Esses instrumentos usam câmeras para identificar pessoas em tempo real em espaços públicos. Para ela, o uso de IA nesses casos são potencialmente discriminatórios.
Os sistemas de alto risco estarão sujeitos a regras mais brandas que os de risco excessivo, mas mais rígidas que os sistemas de IA comuns.
Haverá medidas de controle, registros das operações realizadas e testes de confiabilidade.
Responsáveis por esses sistema devem, por exemplo, fazer uma avaliação de impacto algorítmico, com medidas preventivas, mitigadoras e de reversão dos efeitos negativos do sistema de IA.
Para o representante da Federação Brasileira de Bancos (FBB) Ivo Mósca, as situações previstas no projeto são equilibradas por serem adaptáveis às futuras alterações tecnológicas e por delegarem as regras mais específicas aos órgãos reguladores de cada setor da economia.
O substitutivo apresentado por Eduardo, segundo a Agência Senado, possui 12 capítulos que englobam temas diretivos, como princípios a serem observados (transparência e crescimento inclusivo, entre outros) e proteções ao trabalho, ao meio ambiente e aos direitos autorais.
O projeto ainda assegura uma série de direitos para as pessoas que forem afetadas pelos sistemas de inteligência artificial, como:
Direito à informação prévia quanto às suas interações com sistemas de IA
Direito a privacidade e proteção de dados pessoais
Direito à determinação e participação da pessoa humana em decisões de IA, conforme o contexto
Direito à não discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos
Uso de linguagem simples e clara quando destinados a criança e adolescentes, idosos ou pessoas com deficiência





















