Publicidade
(Bloomberg) –A OpenAI criou um comitê do conselho para avaliar a segurança de seus modelos de inteligência artificial, uma mudança de governança feita semanas depois que seu principal executivo no assunto renunciou e a empresa dissolveu sua equipe.
A medida também vem na sequência a críticas contundentes à governança da OpenAI por dois ex-membros do conselho, Helen Toner e Tasha McCauley, em publicação do The Economist, no domingo (26).
O novo comitê passará 90 dias avaliando prevenções da tecnologia OpenAI antes de apresentar um relatório. “Após a revisão completa do conselho, a OpenAI compartilhará publicamente uma atualização sobre as recomendações adotadas de uma maneira que seja consistente com a segurança e proteção”, disse a empresa em uma publicação de blog nesta terça-feira.
Baixe uma lista de 10 ações de Small Caps que, na opinião dos especialistas, possuem potencial de crescimento para os próximos meses e anos.
A OpenAI também disse que recentemente começou a treinar seu mais recente modelo de IA.
Os recentes e rápidos avanços da empresa privada na IA levantaram preocupações sobre a forma como ela gere os perigos potenciais da tecnologia. Essas preocupações intensificaram-se no outono passado, quando o CEO Sam Altman foi brevemente deposto pela diretoria depois de entrar em conflito com o cofundador e cientista-chefe Ilya Sutskever sobre a rapidez com que desenvolver produtos de IA e as medidas para limitar os danos.
Essas preocupações voltaram este mês, depois que Sutskever e um representante importante, Jan Leike, deixaram a empresa. Os cientistas comandaram a chamada “equipe de superalinhamento” da OpenAI, que se concentrava nas ameaças de longo prazo da IA sobre-humana. Leike, que renunciou, escreveu posteriormente que sua divisão estava “lutando” por recursos computacionais dentro da OpenAI. Outros funcionários que estão saindo ecoaram suas críticas.
Continua depois da publicidade
Após a saída de Sutskever, a OpenAI integrou o que restava da sua equipa nos seus esforços de investigação mais amplos, em vez de a manter como uma entidade separada. O cofundador da OpenAI, John Schulman, agora supervisiona a pesquisa de superalinhamentos como parte de uma missão ampliada e assume o novo título de Chefe de Ciência de Alinhamento.
A startup às vezes tem dificuldade para gerenciar as saídas de pessoal. Na semana passada, a OpenAI rejeitou uma política que cancelava o patrimônio de ex-funcionários caso eles se manifestassem contra a empresa.
Toner e McCauley, que deixaram o conselho da OpenAI depois que Sam Altman foi reintegrado como CEO no ano passado, criticaram a liderança de Altman no fim de semana em um ensaio convidado para o The Economist e alertaram que as saídas de Sutskever e de outros membros da equipe focados na segurança “são um mau presságio para o experimento OpenAI de autogovernança.”
Continua depois da publicidade
Um porta-voz disse que a OpenAI estava ciente das críticas de ex-funcionários e esperava mais, acrescentando que a empresa estava trabalhando para resolver as preocupações.
O novo comitê de segurança da OpenAI será composto por três membros do conselho – o presidente Bret Taylor, o CEO da Quora, Adam D’Angelo, e a ex-executiva da Sony Entertainment, Nicole Seligman, – junto com seis funcionários, incluindo Schulman e Altman. A empresa disse que continuaria a consultar especialistas externos, citando dois deles: Rob Joyce, conselheiro de Segurança Interna de Donald Trump, e John Carlin, ex-funcionário do Departamento de Justiça no governo do presidente Joe Biden.
© 2024 Bloomberg L.P.