Senado aprova regulamentação da IA com consenso
A regulamentação da IA (inteligência articial) no Brasil estabelece sanções rigorosas, classifica aplicações de alto risco e protege os trabalhadores, assegurando responsabilidade civil e ética no uso da tecnologia.
A regulamentação da inteligência artificial (IA) foi aprovada pela comissão temporária do Senado, com consenso entre governistas e oposição. O relatório do senador Eduardo Gomes (PL-TO) avança para votação em Plenário, destacando a exclusão de algoritmos de redes sociais de alto risco.
Consenso na comissão sobre IA
A comissão temporária, encarregada de analisar a regulamentação da inteligência artificial (IA), aprovou o relatório do senador Eduardo Gomes (PL-TO) em uma votação simbólica. O projeto, que estabelece diretrizes para o desenvolvimento e uso de sistemas de IA, agora segue para o Plenário do Senado para votação em regime de urgência.
O consenso alcançado entre senadores governistas e de oposição foi fundamental para a aprovação. Essa foi a sétima versão do relatório, que excluiu os algoritmos das redes sociais da classificação de sistemas de alto risco. A decisão reflete um esforço conjunto para abordar questões específicas do país, ao mesmo tempo em que se inspira nas legislações internacionais.
O presidente da comissão, senador Carlos Viana (Podemos-MG), destacou a importância do consenso em um tema tão dinâmico e em constante evolução. O relatório recebeu 198 emendas, das quais 84 foram aceitas total ou parcialmente, demonstrando a tentativa de conciliar diferentes interesses e perspectivas.
Exclusão de alto risco para redes sociais
A exclusão dos algoritmos de redes sociais da categoria de sistemas de alto risco foi um dos pontos mais discutidos durante a elaboração do relatório sobre a regulamentação da inteligência artificial. O senador Eduardo Gomes (PL-TO), relator do projeto, atendeu às demandas de diversos senadores que consideraram a classificação excessivamente genérica e potencialmente prejudicial.
Senadores como Marcos Rogério (PL-RO), Izalci Lucas (PL-DF) e Mecias de Jesus (Republicanos-RR) argumentaram que a inclusão dos algoritmos de redes sociais poderia ter repercussões indesejáveis, especialmente no que diz respeito à proteção dos direitos fundamentais. Após um intenso debate, a previsão anterior foi retirada, com a justificativa de que a imprecisão técnica poderia impactar setores importantes.
O relator afirmou que a liberdade de expressão deve ser preservada como uma premissa básica em qualquer sociedade democrática. Assim, o texto final do relatório assegura que a regulamentação não será utilizada para restringir essa prerrogativa, garantindo um equilíbrio entre inovação legislativa e direitos fundamentais.
Base do relatório e emendas
O relatório que regulamenta a inteligência artificial (IA) no Brasil tem como base o Projeto de Lei 2.338/2023, apresentado pelo senador Rodrigo Pacheco (PSD-MG). Este projeto foi enriquecido com dispositivos sugeridos em outras sete propostas, incluindo o PL 21/2020, já aprovado pela Câmara dos Deputados, e emendas de diversos senadores.
A busca pelo consenso foi uma prioridade no desenvolvimento do relatório, que recebeu 198 emendas ao longo do processo. Destas, 84 foram acatadas total ou parcialmente pelo relator, senador Eduardo Gomes (PL-TO), demonstrando um esforço para integrar diferentes visões e preocupações dos parlamentares.
O presidente da comissão, senador Carlos Viana (Podemos-MG), destacou a importância do trabalho colaborativo para alcançar um texto que reflita a complexidade e a evolução contínua do tema. A versão final do relatório foi considerada consensual, permitindo que o projeto avance para votação em Plenário com apoio de senadores de diferentes partidos.
Direitos autorais e mineração de texto
O relatório sobre a regulamentação da inteligência artificial aborda a questão dos direitos autorais, estabelecendo regras específicas para a mineração de textos. O texto permite que conteúdos protegidos por direitos autorais sejam utilizados no desenvolvimento de sistemas de IA por instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e organizações educacionais.
Contudo, o uso desses materiais deve ser feito de forma legítima e sem fins comerciais, respeitando os interesses econômicos dos titulares dos direitos. A utilização deve limitar-se ao necessário para alcançar a finalidade proposta, evitando a reprodução, exibição ou dissseminação das obras protegidas.
Além disso, o relatório assegura que os titulares de direitos autorais possam proibir o uso de seus conteúdos em outras circunstâncias. O uso comercial de conteúdos protegidos por direitos autorais em processos de mineração, treinamento e desenvolvimento de sistemas de IA dará direito a remuneração aos titulares dos respectivos direitos, garantindo segurança jurídica e respeito aos criadores de conteúdo.
Proteção aos trabalhadores
O relatório sobre a regulamentação da inteligência artificial inclui diretrizes específicas para proteger os trabalhadores, assegurando direitos fundamentais em um cenário de crescente automação.
Entre as medidas, destaca-se o direito à explicação e revisão humana de decisões automatizadas que tenham impacto jurídico relevante.
Os sistemas de IA que realizam identificação biométrica devem garantir proteção contra discriminação direta, indireta, ilegal ou abusiva. Essa preocupação com a não discriminação é central para assegurar um ambiente de trabalho justo e equitativo.
Além disso, o relator incorporou uma emenda do senador Fabiano Contarato (PT-ES), que promove o desenvolvimento de programas de treinamento e capacitação contínua para os trabalhadores. Essa iniciativa visa fomentar a valorização e o aprimoramento profissional, preparando os trabalhadores para as novas demandas do mercado de trabalho impulsionado pela IA.
A senadora Zenaide Maia (PSD-RN) apoiou o texto, destacando a importância de manter a supervisão humana nos sistemas, garantindo que a tecnologia não substitua o papel central do ser humano, mas sim que o complemente de maneira ética e responsável.
Integridade da informação
A integridade da informação foi um tópico controverso durante a elaboração do relatório sobre a regulamentação da inteligência artificial. Originalmente, o texto incluía dispositivos que associavam a integridade da informação, a liberdade de expressão e o pluralismo político como critérios para regulamentar sistemas de IA de alto risco.
No entanto, após intensas discussões, o relator Eduardo Gomes (PL-TO) acolheu uma emenda do senador Marcos Rogério (PL-RO) e retirou essas previsões do projeto. A decisão foi justificada pela necessidade de evitar qualquer interpretação que pudesse restringir a liberdade de expressão ou o acesso à informação.
Marcos Rogério argumentou que regular não deve significar sufocar ou impedir a inovação, mas sim encontrar um equilíbrio que permita a evolução tecnológica sem comprometer os direitos fundamentais. O relator concordou, afirmando que a liberdade de expressão é uma premissa básica em qualquer sociedade democrática e que o texto jamais poderia ser utilizado para afetar essa prerrogativa.
A exclusão desses dispositivos do relatório indica que os temas de integridade da informação e liberdade de expressão ainda serão objeto de debate no Plenário, com possíveis tentativas de votação de destaques por parte de governistas e opositores.
Avaliação preliminar de IA
A avaliação preliminar dos sistemas de inteligência artificial (IA) é uma das inovações trazidas pelo relatório sobre a regulamentação da IA. Estabelecida a partir de uma emenda da senadora Mara Gabrilli (PSD-SP), essa avaliação visa determinar o grau de risco dos sistemas antes de sua disponibilização no mercado.
De acordo com o texto, a avaliação preliminar será obrigatória apenas para sistemas generativos e de propósito geral. Para os demais, a realização será facultativa, mas considerada uma boa prática que pode trazer benefícios, como prioridade em avaliações de conformidade.
O objetivo da avaliação é identificar os riscos associados ao sistema, considerando suas finalidades e impactos. Ela deve ser conduzida pelos próprios agentes, ou seja, desenvolvedores, fornecedores ou aplicadores do sistema, garantindo que estejam cientes dos riscos potenciais e preparados para mitigá-los.
Essa abordagem busca fomentar a responsabilidade dos agentes envolvidos no desenvolvimento e aplicação de IA, incentivando a adoção de práticas seguras e éticas no uso da tecnologia.
Proibições e riscos excessivos
O relatório sobre a regulamentação da inteligência artificial estabelece proibições específicas para sistemas considerados de risco excessivo. Entre as proibições, destacam-se os sistemas de armas autônomas, capazes de selecionar e atacar alvos sem intervenção humana, devido ao potencial de danos irreparáveis à segurança e à vida humana.
Além disso, o uso de técnicas subliminares para manipular comportamentos e a exploração de vulnerabilidades de indivíduos ou grupos também são vedados. Tais práticas são consideradas perigosas, pois podem induzir ações prejudiciais à saúde e à segurança das pessoas.
O projeto também proíbe a criação e disseminação de material que represente abuso ou exploração sexual de crianças e adolescentes, reforçando o compromisso com a proteção dos direitos humanos e a integridade das pessoas mais vulneráveis.
Outra restrição importante é a vedação de sistemas que avaliem traços de personalidade para prever crimes ou classifiquem indivíduos de forma ilegítima, afetando seu acesso a bens e serviços. Essas medidas visam garantir que a IA não seja utilizada de forma discriminatória ou invasiva, respeitando os direitos fundamentais e a dignidade humana.
Classificação de alto risco
A classificação de sistemas de inteligência artificial (IA) como de alto risco é um dos principais pontos do relatório, impondo regras mais rigorosas para atividades específicas.
Sistemas utilizados em veículos autônomos, controle de trânsito e gestão de abastecimento de água e eletricidade, quando há risco à integridade física ou interrupção ilícita de serviços, são exemplos dessa categoria.
Outras áreas incluem a seleção de estudantes para a educação, decisões sobre contratação e demissão de trabalhadores, e a avaliação de elegibilidade para serviços e políticas públicas. Essas aplicações são consideradas críticas devido ao impacto potencial sobre direitos e liberdades individuais.
O projeto também abrange a investigação de crimes e a gestão de emergências, como serviços de bombeiros e assistência médica, além de diagnósticos médicos e controle de fronteiras. A identificação biométrica para reconhecimento de emoções também é classificada como de alto risco.
Os sistemas de IA que influenciam decisões relevantes ou que podem afetar grupos vulneráveis, ter viés discriminatório ou representar riscos à saúde e à democracia, podem ser classificados como de alto risco por autoridades competentes. A lista de aplicações não é definitiva, permitindo ajustes conforme surgem novos desafios e tecnologias.
Sanções e responsabilidades
O relatório sobre a regulamentação da inteligência artificial prevê sanções rigorosas para infrações às normas estabelecidas. Desenvolvedores, fornecedores e aplicadores de sistemas de IA podem ser penalizados com multas de até R$ 50 milhões ou 2% do faturamento bruto do grupo ou conglomerado por infração.
Além das multas, outras sanções incluem advertências, proibição de tratar determinados dados e suspensão parcial ou total, temporária ou permanente, do desenvolvimento, fornecimento ou operação do sistema. Essas medidas visam garantir a conformidade com as regras e a segurança dos usuários.
A responsabilidade civil por danos causados por sistemas de IA seguirá as disposições do Código Civil e do Código de Defesa do Consumidor, conforme o caso. A inversão do ônus da prova poderá ser aplicada quando for excessivamente oneroso para a vítima comprovar o nexo de causalidade entre a ação humana e o dano causado pelo sistema.
Essas disposições buscam assegurar que os agentes responsáveis por sistemas de IA atuem de maneira ética e responsável, protegendo os direitos dos indivíduos e promovendo a confiança na tecnologia.