A , dona do ChatGPT, anunciou a formação de um conselho de supervisão. A empresa divulgou a novidade nesta terça-feira, 28.
Essa equipe será responsável por avaliar a segurança de seus modelos de inteligência artificial (IA). Isso ocorre depois da renúncia de executivos-chave e da dissolução da equipe de conformidade.
Esse comitê terá 90 dias para analisar as medidas de segurança da tecnologia antes de divulgar um relatório. “Depois da revisão completa do conselho, a OpenAI vai compartilhar publicamente uma atualização sobre as recomendações adotadas de maneira consistente com a segurança”, declarou a empresa, em comunicado.
Demissões e desacordos da dona do ChatGPT
A saída do CEO Sam Altman, no fim do ano passado, por divergências com Ilya Sutskever, fundador e cientista-chefe, gerou preocupações sobre a gestão de riscos da IA.
Sutskever e Jan Leike, líderes da equipe de conformidade, também deixaram a empresa recentemente. Leike mencionou que seu setor estava “lutando” por recursos tecnológicos dentro da OpenAI. Outros funcionários que saíram também reafirmaram essas críticas. Com a saída de Sutskever, a equipe de conformidade foi dissolvida.
O novo conselho de supervisão
A OpenAI informou que iniciou o treinamento de seu mais recente modelo de IA, que substituirá o GPT-4, atualmente utilizado no ChatGPT.
A empresa continuará as atividades da equipe de conformidade sob a unidade de pesquisa. John Schulman vai assumir como novo chefe de “Ciência e Conformidade”.
O novo comitê da OpenAI será composto de três membros do conselho: Bret Taylor, Adam D’Angelo e Nicole Seligman, além de seis funcionários. A empresa também consultará especialistas externos, como Rob Joyce e John Carlin, para contribuir com a segurança dos modelos de IA.
Fonte: revistaoeste