O Senado aprovou nesta terça-feira (10) um projeto que estabelece o marco regulatório da inteligência artificial (IA) no Brasil. A matéria, que agora segue para a Câmara dos Deputados, define regras para o desenvolvimento e o uso de sistemas de IA, com dispositivos voltados à proteção de direitos autorais, classificação de riscos e regulamentação de aplicações. Com a aprovação no Senado, o projeto será analisado pela Câmara dos Deputados. O texto representa um esforço para equilibrar a inovação tecnológica com a proteção de direitos fundamentais, envolvendo a sociedade civil e especialistas no debate.
A maioria dos dispositivos do substitutivo entrará em vigor 730 dias (dois anos) após a publicação da lei, exceto as regras sobre sistemas generativos e de uso geral, aplicações proibidas de IA e direitos autorais, que entram em vigor 180 dias após a publicação. A organização e as atribuições dos órgãos reguladores do mercado de IA, exceto as sanções, terão vigência imediata, assim como as medidas de incentivo à sustentabilidade e às pequenas empresas. A regulamentação não se aplica a sistemas usados por pessoas físicas para fins exclusivamente particulares, sistemas voltados à defesa nacional, ao desenvolvimento e testagem de IA ainda não disponíveis no mercado, e sistemas que fornecem infraestrutura para dados de outros sistemas de IA.
Conheça as principais regulamentações:
Classificação e proibições
O texto divide os sistemas de IA em níveis de risco, sendo mais rigoroso com os de alto risco, como veículos autônomos, diagnósticos médicos e controle de fronteiras. Proíbe também sistemas considerados de “risco excessivo”, como armas autônomas e tecnologias que explorem vulnerabilidades para causar danos à saúde ou segurança.
Proteção de direitos autorais
Obras protegidas por direitos autorais poderão ser utilizadas em processos de desenvolvimento de IA, desde que de forma legítima e para fins não comerciais. Sistemas que utilizem essas obras para fins comerciais deverão remunerar os titulares dos direitos.
Trabalhadores
O substitutivo assegura aos cidadãos o direito à explicação e revisão humana de decisões com impacto jurídico relevante, além de garantir proteção contra discriminação em sistemas de identificação biométrica. A senadora Teresa Leitão (PT-PE) destacou a importância do escrutínio público e da participação social na fiscalização de sistemas de inteligência artificial, enfatizando a necessidade de supervisão humana em decisões automatizadas que envolvam punições disciplinares e demissões, como forma de proteger os trabalhadores.
Integridade das informações
O substitutivo retirou artigos que vinculavam a integridade da informação, a liberdade de expressão e o pluralismo político como critérios para regulamentação de IA de alto risco, bem como a responsabilidade da IA generativa sobre a integridade da informação, devido à falta de consenso entre governistas e oposicionistas. O relator Eduardo Gomes justificou a exclusão ao destacar que a liberdade de expressão é fundamental para a democracia e que o texto não poderia comprometer essa garantia.
Risco excessivo
O substitutivo proíbe o desenvolvimento e o uso de sistemas de inteligência artificial que representem risco excessivo, como armas autônomas capazes de atacar sem intervenção humana, técnicas subliminares, exploração de vulnerabilidades para induzir comportamentos prejudiciais à saúde e segurança, e sistemas voltados à produção e disseminação de material de exploração sexual infantil. Também são vedados sistemas que avaliem traços de personalidade para prever crimes ou classifiquem pessoas com base em comportamento social para determinar, de forma ilegítima, o acesso a bens, serviços e políticas públicas.
O uso de câmeras para identificação em tempo real em espaços públicos será restrito a situações específicas, como busca de vítimas, cumprimento de mandados ou investigação de crimes graves, com autorização judicial quando necessário. Essas medidas visam limitar riscos éticos e de segurança associados à aplicação de IA.
Alto risco
O substitutivo classifica como de alto risco os sistemas de inteligência artificial utilizados em atividades sensíveis, sujeitando-os a regras mais rígidas. Entre essas aplicações estão veículos autônomos, gestão de serviços essenciais como água e eletricidade, e controle de trânsito, quando representarem perigo à integridade física ou riscos de interrupção abusiva dos serviços. Também entram na categoria a seleção de estudantes para acesso à educação, decisões relacionadas ao trabalho, como recrutamento e demissões, e critérios para elegibilidade a serviços e políticas públicas.
Outras atividades de alto risco incluem a investigação de fatos e aplicação da lei com impacto nas liberdades individuais, gestão de prioridades em emergências, diagnósticos médicos, análise de crimes, controle de fronteiras, reconhecimento de emoções por biometria e análise de dados para prevenir crimes. Essas classificações visam garantir maior supervisão em áreas que podem afetar diretamente direitos fundamentais e a segurança pública.
IA generativa e sistemas de propósito geral
Os sistemas de inteligência artificial generativa e de propósito geral deverão seguir regras específicas antes de serem disponibilizados no mercado, incluindo a avaliação preliminar de risco e a demonstração de medidas para mitigar impactos nos direitos fundamentais, meio ambiente, liberdade de expressão, integridade da informação e processo democrático. Esses sistemas devem ser projetados para minimizar o consumo de energia, recursos e resíduos, além de processar dados conforme as exigências legais. Conteúdos gerados ou alterados por IA, como textos e imagens, deverão conter identificadores para autenticação e rastreamento, regulamentados em colaboração com setores público, privado e sociedade civil.
Sansões
A infração das normas no substitutivo pode resultar em sanções severas para desenvolvedores, fornecedores e aplicadores de sistemas de inteligência artificial, com multas de até R$ 50 milhões ou 2% do faturamento bruto do grupo por infração. Outras punições incluem advertência, proibição de tratamento de determinados dados e suspensão parcial ou total das operações do sistema, de forma temporária ou permanente. A responsabilidade civil por danos causados por esses sistemas será regida pelo Código Civil ou pelo Código de Defesa do Consumidor, com a possibilidade de inversão do ônus da prova caso seja difícil para a vítima comprovar o nexo de causalidade.
Autoridade Nacional de Proteção de Dados
O substitutivo prevê que diversos órgãos deverão trabalhar em conjunto com o intuito de organizar, regular e fiscalizar o mercado da inteligência artificial. O texto estabelece a Autoridade Nacional de Proteção de Dados (ANPD) como a autoridade competente para impor sanções, aplicar multas, expedir normas sobre as formas e requisitos de certificação, os procedimentos da avaliação de impacto algorítmico e para a comunicação de graves incidentes.
Poder público
Os sistemas de IA utilizados pelo poder público devem registrar informações sobre quem os utilizou, em que contexto e para qual finalidade, adotando sistemas interoperáveis para evitar dependência tecnológica e garantir a continuidade. Os cidadãos terão direito à explicação e revisão humana de decisões com impacto jurídico relevante, e, no uso de identificação biométrica, deve haver proteção contra discriminação. Se a avaliação de impacto algorítmico identificar riscos não mitigáveis, o uso do sistema será interrompido. O governo também deve proteger os trabalhadores afetados, promovendo adaptação, requalificação e letramento digital, além de incentivar a inovação em IA, com critérios específicos para micro e pequenas empresas e startups nacionais.
Direito dos afetados
O substitutivo garante uma série de direitos às pessoas afetadas pelos sistemas de inteligência artificial, incluindo o direito à informação prévia sobre a interação com IA, à privacidade e à proteção de dados pessoais, além do direito à não discriminação ilícita e à correção de vieses discriminatórios, sejam diretos, indiretos, ilegais ou abusivos. Também é garantido o uso de linguagem simples e clara, especialmente para crianças, adolescentes, idosos e pessoas com deficiência.
Para aqueles afetados por sistemas de alto risco, são assegurados direitos adicionais, como o direito à explicação sobre as decisões tomadas pelo sistema de IA, o direito de contestar tais decisões e o direito a revisão humana, considerando o contexto e os riscos envolvidos. Esses direitos visam assegurar a transparência, a justiça e a proteção das pessoas no uso de tecnologias de IA.
Boas práticas
Desenvolvedores e fornecedores de sistemas de IA poderão adotar códigos de conduta para garantir o cumprimento da futura lei, e sua adesão será considerada um indicativo de boa-fé em casos de sanções administrativas. A autoridade competente poderá credenciar associações de agentes e especialistas em governança de IA para certificar a adoção de boas práticas, e os agentes também poderão criar entidades de autorregulação para reforçar essas práticas.
Participação social e supervisão humana
O projeto reforça a importância de garantir supervisão humana em decisões automatizadas que impactem direitos fundamentais, como em casos de identificação biométrica e processos de recrutamento.
Controvérsias e exclusões
Um dos pontos polêmicos foi a exclusão dos algoritmos de redes sociais da lista de alto risco, decisão que dividiu senadores. Também foi retirada do texto a responsabilidade das IA generativas sobre a integridade da informação, a fim de evitar possíveis conflitos com a liberdade de expressão.
Por Karen Kornilovicz
Agência Softex, com informações da Agência Senado