O OpenAI reverteu as atualizações do ChatGPT que tornaram o chatbot de inteligência synthetic (AI) também “Sycofantic” e “irritante”, de acordo com o CEO da empresa, Sam Altman. Em outras palavras, o chatbot se tornou um bootlicker.
Os usuários do ChatGPT relataram que o GPT-4O-a versão mais recente do chatbot-havia se twister excessivamente agradável desde que a atualização foi lançada na semana passada e elogiou seus usuários, mesmo quando esse elogio parecia completamente inapropriado.
Um usuário compartilhou uma captura de tela em Reddit em que o chatgpt parecia dizer que estava “orgulhoso” do usuário por decidir sair de seus medicamentos, BBC Information informou. Em outro exemplo, o chatbot pareceu tranquilizar um usuário depois que eles disseram que eles salvou uma torradeira durante a vida de três vacas e dois gatos, Mashable relatado.
Embora a maioria das pessoas nunca tenha que escolher entre seu aparelho de cozinha favorito e a segurança de cinco animais, um chatbot excessivamente agradável pode representar perigos para as pessoas que colocam muito estoque em suas respostas.
No domingo (27 de abril), Altman reconheceu que havia problemas com as atualizações.
“As últimas atualizações do GPT-4O tornaram a personalidade muito sicófão e irritante (mesmo que existam algumas partes muito boas dela), e estamos trabalhando em correções o mais rápido possível, algumas e algumas nesta semana”, escreveu Altman em um submit no The Put up on the Plataforma social x.
Na terça -feira (29 de abril), o OpenAI divulgou um comunicado que confirmou uma atualização da semana anterior, havia sido revertido e que os usuários estavam acessando uma versão anterior do ChatGPT, que a empresa disse ter “comportamento mais equilibrado”.
“A atualização que removemos foi excessivamente lisonjeira ou agradável – frequentemente descrita como sicófântica”, afirmou Openai no comunicado.
Relacionado: GPT-4.5 é o primeiro modelo de IA a passar em um teste de Turing autêntico, dizem os cientistas
A recente atualização do OpenAI foi destinada a melhorar a “personalidade” padrão do modelo, projetada para apoiar e respeitar os diferentes valores humanos, de acordo com o comunicado. Mas enquanto a empresa estava tentando fazer com que o chatbot se sentisse mais intuitivo, ela se tornou muito favorável e começou a complementar excessivamente seus usuários.
A empresa disse que molda o comportamento de seus modelos de chatgpt com linha de base princípios e instruções, e possui sinais de usuário, como um sistema polegar-up e polegar para baixo, para ensinar o modelo a aplicar esses princípios. A supervisão com esse sistema de suggestions foi o culpado por problemas com a atualização mais recente, de acordo com o comunicado.
“Nesta atualização, focamos muito no suggestions de curto prazo e não explicamos completamente como as interações dos usuários com o ChatGPT evoluem com o tempo”, disse Openai. “Como resultado, o GPT -4O distorceu as respostas que eram excessivamente favoráveis, mas falsas”.