Presidente da Casa, senador Rodrigo Pacheco, disse que quer votar texto no plenário assim que for aprovado na comissão especial. Projeto prevê algumas proibições para a IA, considerado efeitos de ‘alto risco’. O Senado pode votar nesta quinta-feira (5) o projeto que regulamenta o uso da inteligência artificial no país. Essa é a intenção do presidente da Casa, senador Rodrigo Pacheco (PSD-MG).
A proposta ainda depende de votação na Comissão Temporária de Inteligência Artificial do Senado, que está prevista para as 9h. Pacheco disse que, em seguida, pautará o texto também no plenário do Senado.
“Eu pautei para amanhã [quinta], às 11h, na sessão do plenário do Senado. Eu aguardo ele ser apreciado na comissão, às 9h, e, tão logo seja aprovado, já vai direto para o plenário amanhã [quinta-feira] mesmo”, disse o presidente do Senado nesta quarta-feira à Globonews.
A proposta é uma das prioridades de Pacheco, autor da proposta, que quer concluir a votação na Casa enquanto estiver na presidência do Senado.
“O Congresso Nacional tem trabalhado para produzir um arcabouço legislativo sólido que regule as tecnologias digitais e a mídia, trazendo segurança jurídica para esse segmento”, disse Pacheco.
“Para isso, precisamos de uma infraestrutura digital eficiente, inclusiva e resiliente, que promova a conectividade global em prol da redução das desigualdades, tendo sempre como meta o desenvolvimento social centrado no ser humano”.
A proposta serve para definir os limites e as permissões para o uso da tecnologia, que vai desde uma busca no Google ou a redação de um artigo no ChatGPT até a captura de fugitivos da Justiça.
Se for aprovado, o projeto seguirá para a Câmara dos Deputados.
Maioria das empresas brasileiras aposta em IA
Proibições
O relatório estabelece condutas proibidas para as plataformas responsáveis por IA. Entre elas, estão:
🚫técnicas para induzir o comportamento do usuário ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
🚫exploração de vulnerabilidades dos usuários;
🚫avaliação, por parte do governo, de cidadão, por meio de seu comportamento social e personalidade, na hora de oferecer serviços e políticas públicas;
🚫 avaliar os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência; e
🚫sistema que produza ou dissemine material de abuso e exploração sexual de crianças e adolescentes;
🚫utilização da IA como armas autônomas, que selecionam alvos e atacam sem a intervenção humana.
O uso de identificação biométrica à distância, em tempo real, em espaços públicos será permitido apenas para captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão.
O uso para colher provas em inquéritos policiais também será permitido apenas com autorização judicial e quando não houver outros meios.
Sanções
O relator manteve uma das propostas vindas do presidente do Senado, Rodrigo Pacheco (PSD-MG), que possibilita a aplicação de multa de até R$ 50 milhões ou 2% do faturamento, em caso de pessoa jurídica, para cada violação cometida pelas empresas de tecnologia.
Outras sanções previstas são:
▶️suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA
▶️proibição de tratamento de determinadas bases de dados
▶️proibição ou restrição para participar de regime de sandbox regulatório por até cinco anos
Procedimentos de alto risco
O texto determina quais são as atividades de inteligência artificial consideradas de alto risco.
🔎Apesar de impedir o sistema de prever crimes com base nos traços físicos e de personalidade, o texto libera o uso de IA, por autoridades, para avaliar a credibilidade de provas da investigação e de repressão de infrações.
Segundo o texto, o objetivo seria “prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares”.
Também fica autorizado, desde que classificado como de alto risco, o reconhecimento de emoções.
Nesse caso, fica excluído sistema de autenticação biométrica para confirmar uma pessoa específica, singular.
Entre os procedimentos de alto risco estão:
▶️gestão da imigração e controle de fronteiras para avaliar o ingresso de pessoa ou grupo de pessoas em território nacional;
▶️aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos, quando houver risco relevante à integridade física e mental das pessoas;
▶️controles de trânsito, redes de abastecimento de água e eletricidade;
▶️informações para acesso de estudantes a cursos técnicos e universidade;
▶️critérios de acesso à concessão de benefícios, como revisão de cadastros no Bolsa Família ou até apuração de fraudes em atestados do INSS;
▶️recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho.
Sistema de regulação
O projeto cria um órgão para fiscalizar o uso de IA no Brasil, o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Segundo o texto, o sistema será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD).
Caberá ao SIA regulamentar as inteligências artificiais de alto risco que, por exemplo, impactem negativamente no exercício de direitos e liberdades dos usuários.
O texto prevê ainda a possibilidade de empresas de IA se associarem para criar uma espécie de agência privada para a autorregulação do sistema. De acordo com o texto, a autorregulação poderá estabelecer critérios técnicos dos sistemas para questões como:
▶️compartilhamento de experiências sobre o uso de inteligência artificial;
▶️definição contextual de estruturas de governança;
▶️atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar; e
▶️canal de recebimento de informações relevantes sobre riscos do uso de inteligência artificial por seus associados ou qualquer interessado.
Fonte da Máteria: g1.globo.com