Quando o ChatPGT (OpenAI) se tornou disponível em nossos computadores, tivemos uma enxurrada de preocupações sobre como a Inteligência Artificial estaria próxima ao ponto de afetar a humanidade.
A principal preocupação, bastante sensata na economia em que vivemos, girava e ainda gira entorno de que as máquinas passariam a substituir humanos em todos os setores, uma vez que ela havia chegado ao patamar de possuir uma capacidade que acreditávamos ser apenas nossa, a de criar.
Posso tranquilizá-los quanto a essa: a mais recente Pesquisa de Especialistas Sobre o progresso da IA (2023 Expert Survey on Progress in AI), realizada em 2023, indica que apenas chegaremos ao que chamam de Full Automation of Labor (Total Automação do Trabalho) em 2116.
Até lá, provavelmente teremos novos conceitos sobre o que é força de trabalho.
É por isso que empresas passaram a oferecer treinamentos para que os prompts de seus colaboradores sejam mais assertivos e algumas pessoas poderão perder postos de trabalho, porém apenas se preferirem negar a necessidade de aprendermos a nos adaptar a esta e outras tecnologias que estão surgindo e, “surpresa”, continuarão a surgir.
O medo de que milhares de empregos serão destruídos pela constante inovação ou que a tecnologia nos deixaria ultrapassados é antiga. Contudo, tudo o que já foi criado conseguiu reverter esse aspecto em algum ponto, gerando novos empregos para o lugar daqueles que se tornaram obsoletos.
O que de fato é uma preocupação para todos, neste momento em que toda euforia da novidade da IA generativa diminuiu, é como nós, a própria humanidade, lidaremos com o avanço desta tecnologia. Veja bem, a Inteligência por si só, não é capaz de fazer coisas que não a “ensinamos”. Contudo, algumas escolhas mal-intencionadas de quem a usa podem acarretar a inúmeros problemas.
Nesta mesma pesquisa, citada acima, constatamos que a principal preocupação de quem convive neste meio é a disseminação de informações falsas (86%) e a manipulação de opinião pública (79%), dois fatores que estamos vendo, ao vivo, afetar os meios de comunicação.
Para combater este mal, acredito também ser importante darmos atenção a uma outra preocupação destes especialistas: de os sistemas de IA intensificarem a desigualdade econômica ao beneficiar desproporcionalmente determinados indivíduos (71%).
A regulamentação do uso se faz primordial e, a partir da probabilidade de diversos cenários, podemos entender quais ações e limites devem ser adicionados a cada atualização desta tecnologia.
No Brasil, vejo que temos a tarefa inadiável de agregar a cultura da inovação aos nossos hábitos diários e proporcionar mais acesso das comunidades a estas tecnologias. Pois, para muitos, não está totalmente claro como a Inteligência Artificial Generativa funciona e quais pontos utilizar para atestar a confiança de uma informação.
Quando investimos em aproximar a cultura da inovação da população, principalmente de classes emergentes, podemos perceber que as funções e aspectos da IA Generativa vão, aos poucos, se conectando a rotina das pessoas e se tornando mais fáceis de identificar.
Além de pensar em diversos exemplos de tarefas para introduzi-la, como resumir um assunto para estudar para uma prova, relembrar os responsáveis de uma matéria da escola na hora da lição de casa das crianças, utilizá-la para compreender os ciclos do sono, como tenho visto no TikTok, é preciso que passemos a apontar pequenas características que irão atestar a veracidade de informações na Era Digital.
Um exemplo deste trabalho é a recente implementação das redes sociais em etiquetar conteúdos feitos a partir de IA ou o uso dela para identificar e contestar fake news a partir de base de informações confiáveis.
E, mais do que combatermos uma fake news ao desmenti-la, temos uma grande empreitada em apontar quais pontos e comportamentos facilmente praticados poderão evitar que milhões de pessoas sejam prejudicadas ou propaguem mentiras criadas em territórios digitais. Por exemplo, ensinando a todos sobre características anormais ao fundo de imagens geradas por sites ou a prática de pesquisas em veículos e órgãos oficiais.
Estou ciente de que para muitos aqui, isso pode parecer óbvio, mas defendo a máxima de que, antes de ensinar, não podemos assumir que algo é óbvio.
Por fim, assim como a televisão iria nos alienar, as redes sociais nos deixariam antissociais, as ferramentas generativas e seu bom ou mau uso dependem, principalmente, de quem está a usando. Nossa preocupação deve ser, então, garantir que todos terão acesso e capacidade de usá-las com inteligência humana.
José Loureiro, Diretor de Inovação, Digital e Dados do Grupo Bradesco Seguros.