O relatório final do senador Eduardo Gomes (PL-TO) sobre a regulamentação da IA no País foi aprovado nessa quinta-feira, 5 de dezembro, na Comissão Temporária sobre Inteligência Artificial. O texto foi encaminhado ao plenário do Senado, onde deve ser colocado em votação na próxima semana, possivelmente na terça-feira (10). O relatório recebeu 198 propostas de emenda, sendo 84 delas acatadas total ou parcialmente pelo relator antes da sessão. Se aprovado, o PL devem promover mudanças na criação e uso de ferramentas de IA como o ChatGPT.
PL da Inteligência Artificial
Na Sessão Deliberativa Extraordinária no Senado, o texto foi encaminhado à publicação e foram aprovados os REQ nºs 13 e 14/2024-CTIA, de urgência para a matéria. Após a sessão, foram propostas mais 21 emendas (chegando a 224 emendas), tendo um cenário desafiador contra o tempo para analisar e incluí-las antes da votação. Há grande probabilidade de o texto final ser aprovado pelo Senado. No entanto, ainda haverá mais uma etapa, que é o debate na Câmara dos Deputados, ficando, provavelmente, para 2025.
Alguns parlamentares de oposição, como os senadores Eduardo Girão (Novo-CE), Plínio Valério (PSDB-AM) e Jorge Seif (PL-SC), defenderam mais tempo para analisar o texto, diante da importância do tema e do seu impacto econômico e social. A dúvida, conforme os senadores, está concentrada, basicamente, em dispositivos que possam restringir o direito à liberdade de expressão no país.
Girão solicitou que seja respeitado o prazo regimental de duas sessões subsequentes da sessão que aprovou a urgência para que o projeto possa entrar na pauta.
O projeto divide os sistemas de IA em níveis de risco: risco excessivo e de alto risco para oferecer uma regulamentação diferenciada, dependendo do impacto do sistema na vida humana e nos direitos fundamentais.
Após muitos debates, o relatório aprovado na comissão excluiu da lista de sistemas de IA considerados de alto risco os algoritmos das redes sociais. Um dos temas que levantou mais divergência entre governistas e oposição.
Pontos de destaque do PL
Se aprovado o Projeto de Lei da Inteligência Artificial (PL da IA), o uso de ferramentas como o ChatGPT poderia passar por algumas mudanças práticas para a população em geral, devido às novas exigências e regulamentações. Veja os principais impactos:
1. Identificação clara de sistemas de IA
– O ChatGPT e outras ferramentas similares terão que ser claramente identificados como sistemas de inteligência artificial, por meio de um símbolo ou outro mecanismo de transparência. Isso ajudaria os usuários a saber que estão interagindo com uma máquina, não com uma pessoa.
2. Supervisão humana
– O sistema deverá incluir mecanismos que permitam supervisão humana, especialmente em contextos onde a IA toma decisões com impactos significativos, como diagnósticos médicos, avaliações de crédito ou aplicações educacionais.
3. Princípios de não discriminação
– Ferramentas como o ChatGPT precisarão seguir padrões mais rigorosos para evitar vieses e discriminação em suas respostas. Ferramentas específicas poderão ser exigidas para garantir que o conteúdo gerado respeite grupos vulneráveis e promova equidade.
4. Avaliação de impacto obrigatória
– Para modelos generativos como o ChatGPT, será obrigatória uma avaliação preliminar de impacto, verificando riscos potenciais, como a propagação de desinformação ou o uso inadequado. Isso pode resultar em melhorias no controle de qualidade e na responsabilização por incidentes.
5. Direitos do usuário
– Os usuários terão direito a explicações claras sobre decisões automatizadas que possam impactá-los. Por exemplo, se o ChatGPT for usado em processos como triagem de currículos ou sugestões jurídicas, será necessário que as decisões possam ser revisadas por humanos, garantindo maior transparência.
6. Limitações no uso de conteúdo protegido
– O treinamento de sistemas como o ChatGPT dependerá de regras claras sobre o uso de material protegido por direitos autorais. Isso poderá limitar o acesso a alguns dados, mas também incentivará a obtenção de conteúdo de fontes legítimas e respeitando direitos autorais.
7. Responsabilidade e notificação de incidentes
– Empresas responsáveis por ferramentas de IA, como o OpenAI, deverão notificar autoridades reguladoras em caso de falhas graves, como disseminação de informações incorretas ou uso inadequado da tecnologia.
Possíveis dificuldades
Essas mudanças buscam aumentar a segurança, transparência e ética no uso da IA. Mas também há potenciais efeitos negativos que precisam ser considerados. Esses impactos podem afetar tanto o desenvolvimento da tecnologia quanto o acesso a ela pela população. Veja os principais pontos:
1. Aumento de custos para empresas e produtos
– O cumprimento de exigências como avaliações de impacto, supervisão humana e regulamentação de riscos pode elevar os custos para empresas que desenvolvem sistemas de IA. Esses custos podem ser repassados para os consumidores, tornando serviços como o ChatGPT menos acessíveis ou sujeitos a limitações gratuitas mais severas.
2. Redução da inovação
– Exigências regulatórias rigorosas podem desestimular startups e pequenas empresas a desenvolverem ferramentas de IA devido à alta complexidade e custos para conformidade. O mercado pode ser dominado por grandes empresas, reduzindo a diversidade de opções e inovações para os consumidores.
3. Burocracia excessiva
– A necessidade de notificações frequentes a autoridades, avaliações de impacto e requisitos de transparência pode tornar o processo de desenvolvimento lento e ineficiente. Atualizações e melhorias nas ferramentas podem demorar mais a serem lançadas, o que pode limitar o avanço das tecnologias disponíveis.
4. Menor disponibilidade de conteúdo
– Restrições no uso de materiais protegidos por direitos autorais para treinar modelos de IA podem limitar a qualidade e a diversidade de informações que essas ferramentas podem oferecer. Respostas de ferramentas como o ChatGPT podem se tornar menos abrangentes ou precisas em determinadas áreas.
5. Barreiras à entrada de novas empresas
– A regulação pode criar um ambiente mais favorável para grandes empresas que já possuem recursos para lidar com essas exigências, dificultando a competição de startups. A concentração de mercado pode limitar opções e inibir inovações disruptivas.
6. Potencial impacto negativo em regiões menos desenvolvidas
– Empresas menores em países em desenvolvimento podem enfrentar dificuldades para se adequar às regras, criando desigualdades regionais no acesso à tecnologia. Consumidores em países menos favorecidos podem ter acesso mais limitado a ferramentas avançadas de IA.
7. Dependência de regulação futura
– A lei prevê que várias questões importantes, como moderação de conteúdo e notificações de incidentes, sejam definidas por legislações específicas posteriores, o que pode gerar incertezas ou lacunas legais. A falta de clareza imediata pode levar a interpretações inconsistentes e a uma aplicação desigual das regras.