A OpenAI, apoiada pela Microsoft, disse na segunda-feira que seu comitê de segurança supervisionará os processos de proteção e segurança para o desenvolvimento e implantação do modelo de inteligência artificial da empresa, como um órgão independente.
A mudança segue as recomendações do próprio comitê ao conselho da OpenAI, que foram tornadas públicas pela primeira vez.
A OpenAI, empresa por trás do chatbot viral ChatGPT, formou seu Comitê de Segurança e Proteção em maio para avaliar (link) e desenvolver ainda mais as práticas de segurança existentes na empresa.
O lançamento do ChatGPT no final de 2022 gerou uma onda significativa de interesse e entusiasmo em torno da IA.
O burburinho em torno do ChatGPT destacou tanto as oportunidades quanto os desafios da IA, gerando discussões sobre uso ético e possíveis vieses.
Como parte das recomendações do comitê, a OpenAI disse que está avaliando o desenvolvimento de um “Centro de Análise e Compartilhamento de Informações(ISAC) para o setor de IA, para permitir o compartilhamento de inteligência de ameaças e informações de segurança cibernética entre entidades do setor de IA.”
O comitê independente será presidido por Zico Kolter, professor e diretor do departamento de aprendizado de máquina da Universidade Carnegie Mellon, que faz parte do conselho da OpenAI.
“Estamos buscando uma segmentação interna expandida de informações e pessoal adicional para reforçar as equipes de operações de segurança 24 horas por dia”, de acordo com a OpenAI.
A empresa também disse que trabalhará para se tornar mais transparente sobre as capacidades e riscos de seus modelos de IA.
Mês passado (link) A OpenAI assinou um acordo com o governo dos Estados Unidos para pesquisa, testes e avaliação dos modelos de IA da empresa.