17.7 C
Nova Iorque
sábado, junho 14, 2025

O chatbot desinfo inflamando os protestos de Los Angeles


Zoë Schiffer: Oh, uau.

Leah Feiger: Sim, exatamente. Quem já tem o ouvido de Trump. Isso ficou generalizado. E então as pessoas foram ao Grok de X e eles disseram: “Grok, o que é isso?” E o que Grok disse a eles? Não, não. Grok disse que essas não eram imagens do protesto em Los Angeles. Ele disse que eles eram do Afeganistão.

Zoë Schiffer: Oh. Grok, não.

Leah Feiger: Eles eram como: “Não há apoio credível. Isso é má atribuição”. Foi muito ruim. Foi muito, muito ruim. E depois havia outra situação em que outro par de pessoas compartilhava essas fotos com o ChatGPT, e o chatgpt também ficou tipo: “Sim, este é o Afeganistão. Isso não é preciso, and many others. Não é ótimo.

Zoë Schiffer: Quero dizer, não me inicie neste momento depois que muitas dessas plataformas desmontaram sistematicamente seus programas de verificação de fatos, decidiram deixar propositadamente deixar muito mais conteúdo. E então você adiciona chatbots à mistura que, para todos os seus usos, e acho que eles podem ser realmente úteis, eles são incrivelmente confiantes. Quando o alucinam, quando estragam tudo, fazem isso de uma maneira que é muito convincente. Você não me verá aqui defendendo a pesquisa do Google. Lixo absoluto, pesadelo, mas é um pouco mais claro quando isso está se desviando, quando você está em algum weblog aleatório e não crédico do que quando Grok diz com whole confiança de que você está vendo uma foto do Afeganistão quando não está.

Leah Feiger: É realmente preocupante. Quero dizer, está alucinando. É totalmente alucinando, mas com a arrogância do garoto de fraternidade mais bêbado que você já foi infelizmente encurralado em uma festa em sua vida.

Zoë Schiffer: Pesadelo. Pesadelo. Sim.

Leah Feiger: Eles são como “não, não, não. Tenho certeza. Nunca tive mais certeza da minha vida”.

Zoë Schiffer: Absolutamente. Quero dizer, okay, então por que os chatbots dão a essas respostas incorretas com tanta confiança? Por que não estamos vendo -os apenas dizer: “Bem, eu não sei, então talvez você deva verificar em outro lugar. Aqui estão alguns lugares credíveis para procurar essa resposta e essa informação”.

Leah Feiger: Porque eles não fazem isso. Eles não admitem que não sabem, o que é realmente selvagem para mim. Na verdade, houve muitos estudos sobre isso e, em um estudo recente de ferramentas de pesquisa de IA no Centro de Tow Heart for Digital Journalism da Columbia College, descobriu que os chatbots eram “geralmente ruins em recusar responder a perguntas que não podiam responder com precisão. Oferecendo respostas incorretas ou especulativas”. Realmente, muito, muito selvagem, especialmente quando você considera o fato de que houve tantos artigos durante a eleição sobre “Oh não, desculpe, estou chatgpt e não posso pesar sobre a política”. Você está tipo, bem, está pesando muito agora.

Zoë Schiffer: Okay, acho que devemos fazer uma pausa naquela nota muito horrível e estaremos de volta.

(quebrar)

Zoë Schiffer: Bem -vindo de volta a Excanny Valley. Hoje estou junto a Leah Feiger, editor sênior de política da Wired. Okay, então, além de apenas tentar verificar informações e filmagens, também houve vários relatórios sobre vídeos gerados por IA. Havia uma conta do Tiktok que começou a fazer add de vídeos de um suposto soldado da Guarda Nacional chamado Bob, que foi destacado para os protestos de Los Angeles, e você podia vê -lo dizendo coisas falsas e inflamatórias, como o fato de que os manifestantes estão “jogando balões cheios de petróleo” e um dos vídeos teve um milhão de visões. Então, eu não sei, parece que as pessoas precisam se tornar um pouco mais hábeis em identificar esse tipo de cenas falsas, mas é difícil em um ambiente inerentemente sem contexto, como um publish em X ou um vídeo no Tiktok.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles