Senado aprova regulamentação da inteligência artificial; texto vai à Câmara

Senado aprova regulamentação da inteligência artificial; texto vai à Câmara

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

O Senado aprovou, na noite de terça-feira (10), o projeto que regulamenta a inteligência artificial (IA) no Brasil. A matéria segue agora para a análise da Câmara dos Deputados. 

O texto se apresenta como um marco regulatório com regras para o desenvolvimento e o uso de sistemas de IA. Entre os dispositivos, está um que prevê a proteção dos direitos dos criadores de conteúdo e obras artísticas. A votação foi conduzida pelo senador Weverton (PDT-MA).

O texto aprovado é um substitutivo do senador Eduardo Gomes (PL-TO) que tem como base o PL 2.338/2023, projeto de lei apresentado por Rodrigo Pacheco (PSD-MG), presidente do Senado. E esse projeto, por sua vez, surgiu a partir de um anteprojeto elaborado por uma comissão de juristas.

Senado aprova regulamentação da inteligência artificial; texto vai à Câmara

O substitutivo também engloba dispositivos sugeridos em outras sete propostas – inclusive no PL 21/2020, já aprovado pela Câmara dos Deputados – e em dezenas de emendas de diversos senadores.

Antes de chegar ao plenário do Senado, a matéria tramitou na comissão temporária sobre o tema, onde foram realizadas 14 audiências públicas com a participação da sociedade civil e de diversos setores (tanto da iniciativa pública como privada), além de especialistas em tecnologia e inovação.

A versão aprovada manteve fora da lista de sistemas considerados de alto risco os algoritmos das redes sociais – decisão que atendeu a pedidos dos senadores oposicionistas Marcos Rogério (PL-RO), Izalci Lucas (PL-DF) e Mecias de Jesus (Republicanos-RR) e que provocou o lamento de alguns parlamentares governistas.

Continua depois da publicidade

Por outro lado, o texto atendeu a uma demanda dos senadores governistas ao manter o dispositivo que prevê a proteção dos direitos dos criadores de conteúdo e obras artísticas. Esses foram dois pontos que geraram maior dificuldade de entendimento entre os dois blocos.

Emendas

Relator da matéria, Eduardo Gomes acatou duas emendas sugeridas pelo senador Esperidião Amin (PP-SC). Uma delas busca evitar vício de iniciativa quanto ao Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) – que deverá ser criado para fiscalizar o cumprimento das regras a serem seguidas pelos desenvolvedores de tecnologia. 

O SIA, de acordo com o texto, será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). A emenda torna a criação do órgão autorizativa, já que é função privativa do presidente da República criar entidades ou conselhos.

Continua depois da publicidade

A outra emenda de Esperidião Amin recomenda que a SIA leve em consideração requisitos, que podem ser adotados ou não pelo órgão, sobre sistemas que possam ser identificados como não sendo de alto risco e que possam ser considerados, inclusive, para oferecer agilidade aos serviços prestados pelos órgãos públicos. A intenção, segundo o senador de Santa Catarina, é deixar claro o que é legal e permitido. 

De acordo com tais requisitos, não seriam de alto risco, por exemplo, os sistemas destinados a desempenhar uma tarefa processual restrita; a melhorar o resultado de uma atividade humana que é realizada sem o uso da inteligência artificial; a detectar padrões de tomada de decisões ou desvios em relação a padrões de tomada de decisão; a executar uma tarefa preparatória no contexto de uma avaliação. 

Voto contrário

Durante o debate que antecedeu a aprovação do substitutivo, o senador Eduardo Girão (Novo-CE) chegou a apresentar requerimento sugerindo que o substitutivo fosse discutido em sessão de debates temáticos antes de ser votado. Segundo ele, a matéria estaria sendo votada de forma “açodada” e alguns aspectos do texto ainda despertam dúvidas entre os parlamentares, como a criação do SIA e as competência do coordenador do sistema. Girão disse temer que a proposta possa conter como alguma tentativa de censura da opinião pública ou possa impedir o desenvolvimento dessa tecnologia. 

Continua depois da publicidade

O pedido de Girão, porém, foi indeferido pelo presidente do Senado. Rodrigo Pacheco ressaltou que já havia ocorrido uma sessão temática sobre o assunto no Plenário da Casa, e também lembrou que a comissão temporária presidida por Carlos Viana havia promovido 14 audiências públicas sobre o tema.

Riscos

O texto divide os sistemas de inteligência artificial (IA) em níveis de risco, oferecendo uma regulamentação distinta para os de alto risco, a depender do impacto do sistema na vida humana e nos direitos fundamentais. Também proíbe o desenvolvimento de aplicações de IA que apresentem “risco excessivo”. Essas classificações também estiveram entre os dispositivos que geraram controvérsias nos debates da comissão temporária.

Além disso, uma das principais alterações da última versão do texto, em relação às versões iniciais, é o caráter facultativo da avaliação preliminar dos sistemas de IA, estabelecido pelo relator, Eduardo Gomes, a partir de emenda da senadora Mara Gabrilli (PSD-SP).

Continua depois da publicidade

O objetivo dessa avaliação preliminar é determinar o grau de risco do sistema, que dependerá de suas finalidades e do seu impacto. Ela deve ser realizada pelos próprios agentes – isto é, os desenvolvedores, fornecedores ou aplicadores do sistema, conforme o caso –, antes da disponibilização do sistema no mercado.

De acordo com o substitutivo, a avaliação preliminar só será obrigatória para os sistemas generativos e de propósito geral. Para os demais casos, ela será facultativa, mas será considerada uma medida de boa prática, podendo resultar em benefícios para os agentes (como prioridade em avaliações de conformidade).

Direitos autorais

Os senadores mantiveram no texto a proteção dos direitos dos criadores de conteúdo e obras artísticas. 

Continua depois da publicidade

O substitutivo estabelece que conteúdos protegidos por direitos autorais poderão ser utilizados em processos de “mineração de textos” para o desenvolvimento de sistemas de IA por instituições de pesquisa, de jornalismo, museus, arquivos, bibliotecas e organizações educacionais. No entanto, o material precisa ser obtido de forma legítima e sem fins comerciais. 

Além disso, o objetivo principal da atividade não pode ser a reprodução, exibição ou disseminação da obra usada, e a sua utilização deve se limitar ao necessário para alcançar a finalidade proposta – e os titulares dos direitos não podem ter seus interesses econômicos prejudicados injustificadamente. O titular de direitos autorais poderá proibir o uso de conteúdos de sua propriedade nas demais hipóteses.

O texto também prevê que o uso de conteúdos protegidos por direitos autorais em processos de mineração, treinamento e desenvolvimento de sistemas de inteligência artificial disponibilizados comercialmente dará direito de remuneração aos titulares dos respectivos direitos.

Já o uso de imagem e voz de pessoas por sistemas de IA deverá respeitar os direitos da personalidade, conforme previstos no Código Civil.

Isso significa que qualquer utilização desse material precisa de consentimento prévio e não pode causar danos à honra, à reputação ou à intimidade das pessoas. A violação dessas garantias pode resultar em ações judiciais e pedidos de indenização.

Integridade da informação 

O substitutivo retirou do texto um artigo que previa o risco à integridade da informação, à liberdade de expressão, ao processo democrático e ao pluralismo político como critério para regulamentação e identificação – pelo SIA – de novas hipóteses de IA de alto risco. Não houve acordo sobre esse artigo entre governistas e oposicionistas.

Também ficou de fora o trecho que atribuía à IA generativa a responsabilidade sobre a integridade da informação. Para senadores da oposição, esse artigo poderia funcionar como mecanismo para o controle da liberdade de expressão e do acesso à informação.

Em seu voto, o relator da matéria, Eduardo Gomes, concordou com os argumentos desses parlamentares. “Conforme já asseverado, a liberdade de expressão se apresenta como premissa básica a qualquer sociedade democrática, e o texto ora relatado jamais poderia ser utilizado para afetar essa prerrogativa”, afirmou Gomes em seu parecer, ao explicar a retirada do artigo. 

Risco excessivo

O substitutivo proíbe o desenvolvimento e o uso de sistemas com determinadas características ou finalidades, por considerar que representam risco excessivo. Entre eles estão os chamados sistemas de armas autônomas (SAA), isto é, que podem selecionar e atacar alvos sem intervenção humana.

A proposta também proíbe o uso de técnicas subliminares e a exploração de vulnerabilidades de pessoas ou grupos para induzir comportamentos danosos à saúde e à segurança.

Além disso, proíbe sistemas que tenham o objetivo de possibilitar a produção e a disseminação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes.

O texto ainda proíbe a avaliação de traços de personalidade e características de comportamento para prever a realização de crimes. E impede a classificação de indivíduos com base em seu comportamento social ou personalidade para determinar, de forma ilegítima e desproporcional, o acesso a bens, serviços e políticas públicas.

O uso de câmeras para identificar pessoas em tempo real em espaços públicos só será permitido para busca de vítimas de crimes ou pessoas desaparecidas, para recapturar fugitivos, cumprir mandados de prisão ou medidas restritivas, investigar e reprimir crimes em flagrante nos casos de delitos cuja pena de prisão seja superior a dois anos e instruir inquérito ou processo criminal com autorização do juiz, quando a prova não puder ser feita por outros meios.

Alto risco

O substitutivo classifica como sistemas de inteligência artificial de alto risco, que estarão sujeitos a regras mais rígidas, aqueles que vierem a ser utilizados em determinadas atividades, como:

  • controle de trânsito e gestão de abastecimento de água e eletricidade quando houver perigo para a integridade física das pessoas ou risco de interrupção dos serviços de forma ilícita ou abusiva;
  • seleção de estudantes para acesso à educação e à progressão acadêmica;
  • tomada de decisões sobre recrutamento, avaliação, promoção e demissão de trabalhadores;
  • avaliação de critérios para aferir a elegibilidade a serviços e políticas públicas;
  • investigação de fatos e aplicação da lei quando houver riscos às liberdades individuais, no âmbito da administração da Justiça;
  • gestão de prioridade em serviços de emergência, como os de bombeiros e assistência médica;
  • estudo analítico de crimes;
  • reconhecimento de emoções por identificação biométrica;
  • análise de dados para prevenção da ocorrência de crimes.

De acordo com o texto, sistemas usados como ferramentas intermediárias e que não influenciem decisões relevantes não serão considerados de alto risco. E o agente de sistemas de IA poderá solicitar a revisão da classificação de seu sistema, caso discorde dela.

Ainda segundo o relatório de Eduardo Gomes, a lista de aplicações e usos de sistemas de IA considerados de alto risco não deve ser fechada ou definitiva. O objetivo é que a lista seja “aberto-exemplificativa”, ou seja, que tenha exemplos, mas permita a inclusão de novas situações no futuro, de acordo com mudanças ou avanços.

Avaliação de impacto

O texto prevê que, quando um sistema de IA for classificado como de alto risco, deverá ser realizada a avaliação de impacto algorítmico por profissionais com conhecimentos técnicos, científicos, regulatórios e jurídicos.

A avaliação de impacto algorítmico verificará os riscos aos direitos fundamentais conhecidos e previsíveis, os benefícios do sistema, a probabilidade e a gravidade de eventuais consequências adversas e os esforços necessários para mitigá-las, as medidas de transparência e a lógica do sistema.

As conclusões dessas avaliações deverão ser públicas e disponibilizadas em banco de dados mantido pela autoridade competente. Um regulamento  deverá determinar a periodicidade da revisão dessa avaliação. Caso, após a introdução do sistema no mercado, os agentes descubram novos riscos aos direitos dos indivíduos, devem comunicá-lo às autoridades competentes e às pessoas afetadas.

A proposta determina que os agentes dos sistemas de IA deverão ter estruturas internas de governança para garantir a segurança do sistema e o atendimento dos direitos das pessoas afetadas.

Já os sistemas de alto risco precisarão, além disso, documentar a realização de testes de confiabilidade e segurança; mitigar eventuais vieses discriminatórios; adotar ferramentas de registro automático de operação para avaliar seu desempenho e apurar eventuais resultados discriminatórios; e adotar medidas que permitam explicar os resultados obtidos. A eventual ocorrência de incidentes graves de segurança deverá ser comunicada em prazo adequado à autoridade competente, a qual poderá determinar providências a serem tomadas.

IA generativa e sistemas de propósito geral

Os sistemas conhecidos como generativos e de propósito geral terão regras específicas. Antes de esses sistemas serem disponibilizados no mercado, seus agentes devem realizar a avaliação preliminar para classificação de risco. Devem também demonstrar que identificaram e mitigaram possíveis riscos aos direitos fundamentais, ao meio ambiente, à liberdade de expressão, à integridade da informação e ao processo democrático. 

Esses sistemas devem ser concebidos de modo a reduzir o uso de energia e outros recursos e a produção de resíduos. Também só poderão processar dados em conformidade com as exigências legais.

Conteúdos sintéticos como textos, imagens, vídeos e áudios produzidos ou modificados por meio de IA deverão conter identificador – que poderá ser disponibilizado na forma de metadados – para que se possa verificar a sua autenticidade e a sua proveniência. O texto aprovado prevê a regulamentação (em parceria com a iniciativa privada, profissionais de pesquisa e a sociedade civil) de formas de identificar e rotular esses conteúdos.

Sanções administrativas e responsabilidade civil

A infração das normas contidas no substitutivo poderá sujeitar desenvolvedores, fornecedores e aplicadores de sistemas de inteligência artificial a multas de até R$ 50 milhões ou a 2% do faturamento bruto do grupo ou conglomerado por infração.

Outras sanções previstas são advertência, proibição de tratar determinados dados e suspensão parcial ou total, temporária ou permanente do desenvolvimento, fornecimento ou operação do sistema.

O texto prevê que a responsabilização civil por danos causados por sistemas de inteligência artificial estará sujeita às regras previstas no Código Civil ou no Código de Defesa do Consumidor, conforme o caso. Caberá a inversão do ônus da prova quando for muito oneroso para a vítima comprovar o nexo de causalidade entre a ação humana e o dano causado pelo sistema.

Autoridade Nacional de Proteção de Dados

O substitutivo prevê que diversos órgãos deverão trabalhar em conjunto com o intuito de organizar, regular e fiscalizar o mercado da inteligência artificial.

O texto estabelece a Autoridade Nacional de Proteção de Dados (ANPD) como a autoridade competente para impor sanções, aplicar multas, expedir normas sobre as formas e requisitos de certificação, os procedimentos da avaliação de impacto algorítmico e para a comunicação de graves incidentes. 

A ANPD também deverá se manifestar sobre processos normativos dos órgãos reguladores e exercerá competência normativa, regulatória e sancionatória quanto ao uso de IA para atividades econômicas que não tiverem órgão regulador específico.

A ANPD também zelará pelos direitos fundamentais, estimulará a adoção de boas práticas, receberá denúncias e representará o Brasil em organismos internacionais da área.

Além disso, a ANPD coordenará o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será criado e integrado por órgãos estatais de regulação setorial, entidades de autorregulação e de certificação, pelo Conselho de Cooperação Regulatória de Inteligência Artificial (Cria) e pelo Comitê de Especialistas e Cientistas de Inteligência Artificial (Cecia).

Entre as atribuições do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), estão a regulamentação dos sistemas de alto risco, o reforço das competências das autoridades setoriais e da ANPD, a harmonização da atuação dos órgãos reguladores e a realização de estudos periódicos, com o envio ao Congresso Nacional, a cada quatro anos, de parecer sobre a necessidade de aprimoramentos na legislação sobre inteligência artificial.

O Conselho de Cooperação Regulatória de Inteligência Artificial (Cria), que também será coordenado pela ANPD, será um fórum permanente de comunicação com órgãos e entidades da administração pública responsáveis pela regulação de setores específicos, a fim de harmonizar e facilitar o trabalho da autoridade competente. Sua composição será definida em regulamento.

Já o Comitê de Especialistas e Cientistas de Inteligência Artificial (Cecia) será criado para orientar e supervisionar o desenvolvimento e aplicação da IA a partir de regras e critérios estabelecidas em regulamento.

As autoridades setoriais poderão estabelecer regras para o uso de inteligência artificial no âmbito de suas competências. A elas caberá receber a avaliação de impacto algorítmico e detalhar as listas de sistemas de alto risco.

Em parceria com o Ministério do Trabalho, todas essas autoridades deverão produzir diretrizes para reduzir potenciais riscos aos trabalhadores (especialmente no que se refere a perda de emprego e de oportunidade de carreira) e potencializar os impactos positivos.

Poder público

Os sistemas de IA utilizados pelo poder público, além de implementar as medidas previstas para todos os demais sistemas, deverão registrar quem os usou, em que situação e para qual finalidade. Deverão ser empregados, preferencialmente, sistemas interoperáveis, de modo a evitar a dependência tecnológica e propiciar a continuidade dos sistemas desenvolvidos ou contratados.

Os cidadãos terão assegurados os direitos à explicação e revisão humana das decisões que tiverem impacto jurídico relevante. No caso de uso de sistemas que façam identificação biométrica, deverá haver a garantia de proteção contra discriminação direta, indireta, ilegal ou abusiva.

No caso de a avaliação de impacto algorítmico de um sistema usado pelo poder público identificar riscos que não possam ser eliminados ou mitigados, o uso deverá ser interrompido.

O governo também deverá zelar pela proteção dos trabalhadores afetados pelos sistemas de IA, buscando adaptá-los e requalificá-los, além de promover o letramento digital da população a fim de que os cidadãos façam o melhor uso possível da inteligência artificial.

O poder público deverá incentivar a inovação em inteligência artificial, procurando contratar soluções inovadoras que promovam a cultura nacional e a língua portuguesa, e definindo critérios distintos para sistemas ofertados por micro e pequenas empresas e startups nacionais.

Direitos dos afetados

O substitutivo assegura uma série de direitos às pessoas que forem afetadas pelos sistemas de inteligência artificial:

  • direito à informação prévia de que está interagindo com sistemas de IA;
  • direito à privacidade e a proteção de dados pessoais;
  • direito à não discriminação ilícita e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos;
  • uso de linguagem simples e clara quando destinados a criança e adolescentes, idosos ou pessoas com deficiência.

As pessoas afetadas por sistemas de alto risco terão, adicionalmente, os seguintes direitos:

  • direito à explicação sobre a decisão tomada pelo sistema de inteligência artificial;
  • direito à contestação das decisões;
  • direito à revisão humana das decisões, considerando o contexto e o risco associado.

A supervisão humana terá como objetivo prevenir e minimizar os riscos para os direitos e as liberdades das pessoas. Para isso, os supervisores devem poder intervir no sistema.

Quando essa supervisão for comprovadamente impossível ou exigir esforço desproporcional, ela não será exigida, mas os agentes deverão implementar medidas alternativas eficazes.

Boas práticas

Os desenvolvedores e fornecedores de sistemas poderão adotar códigos de conduta para assegurar o cumprimento dos dispositivos da futura lei. A adesão a esses códigos será considerada indicativo de boa-fé por parte do agente nos casos em que for aplicada sanção administrativa.

A autoridade competente poderá credenciar associações de agentes e especialistas em governança de IA para que concedam certificação da adoção de boas práticas de governança. Os agentes também poderão criar entidades de autorregulação.

Vigência

O texto prevê que a maioria dos dispositivos do substitutivo deverá entrará em vigor 730 dias (ou seja, dois anos) depois da publicação da lei. No entanto, as regras sobre sistemas generativos e de uso geral, sobre as aplicações proibidas de sistemas de IA e sobre os direitos de autor deverão entrar em vigor 180 dias após a publicação da lei.

Já a organização e as atribuições dos órgãos reguladores do mercado de IA, com exceção das sanções aplicáveis, terão vigência imediata. O mesmo vale para as medidas de incentivo à sustentabilidade e às pequenas empresas.

Estão fora da regulamentação os sistemas usados por pessoas físicas com finalidade exclusivamente particular, os que forem voltados à defesa nacional, os que forem voltados ao desenvolvimento e à testagem de aplicações de IA e ainda não tiverem sido disponibilizados no mercado e os que se limitarem a prover infraestrutura para os dados de outros sistemas de inteligência artificial.

(Com Agência Senado)

Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!