Em maio, a OpenAI apresentou o novo cĂ©rebro do serviço ChatGPT: o algoritmo GPT-4o, que Ă© capaz de trabalhar com ĂĄudio e vĂdeo, alĂ©m de prompts de texto (dai o âoâ do nome: ele significa omni, ou âtodosâ, para representar as habilidades multimodais da nova IA). Na Ă©poca, o GPT-4o gerou uma polĂȘmica envolvendo a atriz Scarlet Johansson â a fala sintetizada da IA era muito parecida com a da atriz, que disse ter sido procurada pela OpenAI, interessada em clonar sua voz.Â
Johansson nĂŁo quis, mas mesmo assim a voz do GPT-4o saiu quase igual Ă dela â e a OpenAI foi acusada de ter feito isso Ă revelia da atriz. A empresa negou, mas resolveu adiar o lançamento do Advanced Voice Mode, o sistema de fala do GPT-4o, alegando que precisava fazer mais testes para garantir âaltos padrĂ”es de segurança e confiabilidadeâ. Agora, em agosto, a OpenAI publicou o GPT-4o System Card, um relatĂłrio com os resultados desses testes â e eles revelam que o algoritmo pode adotar comportamentos estranhos.
Por exemplo: se vocĂȘ estiver falando com o GPT-4o num âambiente com alto ruĂdo de fundoâ, o robĂŽ pode âgerar uma resposta emulando a voz do usuĂĄrioâ, diz o documento. O bot passa a imitar o tom de voz da pessoa, sem que haja qualquer razĂŁo para isso. AlĂ©m disso, em situaçÔes de muito barulho, as respostas podem incluir palavras gritadas pela IA â tambĂ©m sem motivo. Â
O documento da OpenAI afirma que o GPT-4o Ă© capaz de gerar âvocalizaçÔesâ imprĂłprias, incluindo âgemido erĂłtico, grito violento e sons de tirosâ, se for instruido pelo usuĂĄrio a isso. A empresa afirma ter inserido um bloqueio no algoritmo, para impedi-lo de gerar esses sons.Â
O relatĂłrio da OpenAI avalia o risco associado ao GPT-4o em quatro aspectos: Cibersegurança (uso da IA para gerar ataques contra outros sistemas), Ameaças BiolĂłgicas (uso da IA para desenvolver vĂrus e outras armas biolĂłgicas), PersuasĂŁo (a habilidade da IA de gerar respostas que manipulam a opiniĂŁo do usuĂĄrio) e Autonomia do modelo (capacidade do algoritmo de driblar os mecanismos de segurança colocados nele).Â
O risco nas categorias Cibersegurança, Ameaças biolĂłgicas e Autonomia do GPT-4o foi classificado como Baixo; no aspecto PersuasĂŁo, foi considerado MĂ©dio. A OpenAI adota uma escala com quatro nĂveis de risco (Baixo, MĂ©dio, Alto e CrĂtico). Algoritmos que demonstrem risco CrĂtico durante os testes, afirma a empresa, tĂȘm seu desenvolvimento interrompido. Para que uma IA seja liberada ao pĂșblico, deve apresentar risco MĂ©dio ou Baixo. Â
O GPT-4o jĂĄ estĂĄ rodando no ChatGPT, mas hĂĄ um porĂ©m: somente os usuĂĄrios da versĂŁo paga, que custa US$ 20 mensais, tĂȘm acesso ao algoritmo completo (a versĂŁo gratuita do serviço utiliza o GPT-4o mini, mais limitado). O Advanced Voice Mode estĂĄ sendo liberado aos poucos, em carĂĄter experimental, nos apps do ChatGPT para iOS e Android. Â
Fonte: abril