Regulamentação da inteligência artificial avança no Senado

mão de robô segura símbolo virtual de IA

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Projeto cria diretrizes para o desenvolvimento de IA, regras para monitoramento do poder público e uso de direitos autorais

O projeto para regulamentar o desenvolvimento e o uso de IA (inteligência artificial) no Brasil foi aprovado nesta 5ª feira (5.dez.2024) em comissão especial do Senado. A expectativa é de que seja votado no plenário da Casa na 3ª feira (10.dez). Leia a íntegra (PDF – 461 kB). 

A proposta estabelece normas gerais, responsabilidades e punições sobre o uso e o desenvolvimento desse tipo de tecnologia. Também cria direitos para pessoas e grupos afetados por elas, além de regras para uso de conteúdo protegido por direitos autorais.

O projeto original, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), sofreu grandes modificações, saindo de 5 para 60 páginas. 

O relator foi o senador Eduardo Gomes (PL-TO), que foi pressionado por representantes de diferentes setores, incluindo de comunicação e artistas, uma vez que o texto trata também sobre direitos autorais.

Ele afirmou, no entanto, que o texto terá de passar por atualizações constantes e defendeu uma tramitação mais rápida para normas envolvendo tecnologia.

“É utopia o Congresso Nacional imaginar que pode legislar sobre o mundo digital com a velocidade de escopo e leis que temos. Sempre estamos com delay, sempre chegamos atrasados”, falou.

PRESSÃO DAS BIG TECHS 

O projeto foi alvo intenso de lobby por parte das big techs, como são conhecidas as grandes empresas de tecnologia. 

Um dos pontos que mais preocupava essas empresas ficou de fora: o que classificava os sistemas de IA de provedores de aplicação de internet (Google, Facebook e outros aplicativos) como alto risco, o que aumentaria suas responsabilidades. O trecho foi retirado, em vitória para as empresas.

DIREITOS AUTORAIS E PAGAMENTO DE CONTEÚDO PROTEGIDO

O projeto estabelece que desenvolvedores e distribuidores de IA deverão remunerar os detentores de conteúdos protegidos por direitos de autor e direitos conexos.

O texto não estabelece valores, mas afirma que devem seguir “os princípios da razoabilidade e da proporcionalidade e elementos relevantes”. 

Também afirma que os detentores de direitos autorais terão o direito de negociar os valores.

O texto proíbe a exibição ou a disseminação das obras e conteúdos protegidos por direitos de autor e conexos utilizados no desenvolvimento de sistemas de inteligência artificial.

A proposta cria exceções para o uso de conteúdo com direito autoral, como para pesquisas e desde que não tenha fim comercial. Segundo o projeto, esses casos não ofendem os direitos autorais.

CRÍTICAS DA OPOSIÇÃO

O texto foi aprovado com um dos trechos com maior resistência de senadores de oposição ao governo: o que trata sobre a “integridade da informação”.

Senadores ligados ao ex-presidente Jair Bolsonaro (PL) articularam contra o trecho, sob o argumento de que prejudicaria a liberdade de expressão. 

O senador Marcos Rogério (PL-RO), afirmou durante a votação que o trecho abre o conceito de “integridade” para “qualquer tipo de interpretação” e questionou quem definirá o que “pode ser considerado íntegro ou não”.

Eduardo Gomes manteve o conceito por entender que “o contexto regulado caracteriza-se pelo uso de informações em larga escala” e que é necessária a “confiabilidade desses dados, sempre em associação com a liberdade de expressão”.

Alguns senadores defenderam a manutenção do trecho. O presidente da comissão, Carlos Viana (Podemos-MG), disse que “só não defende a integridade da informação quem manipula notícias falsas”.

Já a senadora Zenaide Maia (PSD-RN) afirmou já ter sido vítima de deep fakes, como são conhecidas as imagens manipuladas com o rosto de alguém.

PROIBIÇÕES PARA O PODER PÚBLICO

O texto proíbe o desenvolvimento, a implementação e o uso de sistemas de IA para alguns casos, inclusive feitas por autoridades públicas. 

O projeto proíbe, por exemplo, que o poder público use IA para avaliar, classificar ou ranquear pessoas para o acesso a políticas públicas, de forma ilegítima ou desproporcional. 

Também proíbe o uso da IA para identificação biométrica à distância, em tempo real e em espaços acessíveis ao público. Há, no entanto, exceções, como:

  • busca de vítimas de crimes, de pessoas desaparecidas ou em circunstâncias que envolvam ameaça grave e iminente à vida ou à integridade física de pessoas naturais;
  • flagrante delito de crimes punidos com pena privativa de liberdade superior a 2 anos;
  • recaptura de réus evadidos, cumprimento de mandados de prisão e de medidas restritivas ordenadas pelo Poder Judiciário.

OUTRAS PROIBIÇÕES

O texto também proíbe o uso de IA para práticas como:

  • instigar ou induzir o comportamento da pessoa natural ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
  • avaliar os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência;
  • possibilitar a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes.

PUNIÇÕES

O texto define que a responsabilização por danos causados pelos sistemas de inteligência artificial seguirão as regras do Código Civil.

O texto estabelece sanções administrativas, como advertência, multa, suspensão e proibição de tratamento de dados.  

A multa será de até R$ 50 milhões por infração ou de até 2% do faturamento bruto do grupo.

OUTROS PONTOS DO PROJETO

O senador Eduardo Gomes fez alterações no texto. A última versão adicionou, por exemplo, a proibição de que a inteligência artificial seja usada para a produção e a disseminação de material que represente abuso ou exploração sexual de crianças e adolescentes. 

O texto determina, dentre outras coisas:

  • supervisão e determinação humana efetiva e adequada no ciclo de vida da inteligência artificial, considerando o grau de risco envolvido;
  • prestação de contas, responsabilização e reparação integral de danos;
  • usuários e grupos afetados por IA terão direito à informação sobre suas interações com sistemas de IA, de forma acessível, gratuita e de fácil compreensão;
  • de que IAs de alto risco terão supervisão humana para minimizar riscos. O texto afirma, no entanto, que a supervisão humana não será exigida se sua implementação for comprovadamente impossível ou implique esforço desproporcional;

O texto estabelece uma série de casos para IAs de alto risco, como as que avaliam prioridades para serviços públicos essenciais ou para auxiliar diagnósticos e procedimentos médicos.

Para esses casos (alto risco), o texto define direitos como:

  • à explicação sobre a decisão, recomendação ou previsão feitas pelo sistema;
  • de contestar e de solicitar a revisão de decisões, recomendações ou previsões de sistema de IA; 
  •  à revisão humana das decisões, levando-se em conta o contexto, risco e o estado da arte do desenvolvimento tecnológico.

O texto determina que as IAs de alto risco deverão ser regulamentada ao SIA (Sistema Nacional de Regulação e Governança de Inteligência Artificial).



Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!