O governo Trump quer otimizar o governo dos EUA, usando a IA para aumentar a eficiência
Greggory Disalvo/Getty Pictures
O que é inteligência synthetic? É uma questão com a qual os cientistas lutam desde o início da computação na década de 1950, quando Alan Turing Perguntado: “As máquinas podem pensar?” Agora que os grandes modelos de idiomas (LLMS) como o ChatGPT foram desencadeados no mundo, encontrar uma resposta nunca foi tão premente.
Embora seu uso já tenha se espalhado, as normas sociais em torno dessas novas ferramentas de IA ainda estão em rápida evolução. Os alunos devem usá -los para Escreva ensaios? Eles vão Substitua seu terapeuta? E eles podem turboar o governo?
Essa última pergunta está sendo feita nos EUA e no Reino Unido. Sob o novo governo Trump, a força -tarefa do Departamento de Eficiência do Governo (DOGE) de Elon Musk está eliminando trabalhadores federais e lançando um chatbot, Gsai, para aqueles que permanecem. Enquanto isso, o primeiro -ministro do Reino Unido, Keir Starmer, chamou AI de “oportunidade de ouro” que poderia ajudar a remodelar o estado.
Certamente, há um trabalho do governo que pode se beneficiar da automação, mas o LLMS é a ferramenta certa para o trabalho? Parte do problema é que ainda não podemos concordar o que eles realmente são. Isso foi demonstrado adequadamente nesta semana, quando Novo cientista usou leis de liberdade de informação (FOI) para obter as interações chatgpt de Peter KyleSecretário de Estado do Reino Unido para ciência, inovação e tecnologia. Políticos, especialistas em privacidade de dados e jornalistas – principalmente nós – ficaram surpresos com o fato de esse pedido ter sido atendido, dados solicitações semelhantes para o histórico de pesquisa do Google de um ministro, digamos, geralmente seriam rejeitados.
O fato de os registros serem divulgados sugerem que o governo do Reino Unido vê usando o ChatGPT como mais parecido com uma conversa ministerial com funcionários públicos por e -mail ou Whatsapp, ambos sujeitos a leis de FOI. As interações de Kyle com o ChatGPT não indicam uma forte dependência da IA para formar uma política séria – uma de suas perguntas period sobre quais podcasts ele deveria aparecer. No entanto, o fato de o pedido de FOI ter sido concedido sugere que alguns no governo parecem acreditar que a IA pode ser convertida como um humano, o que é preocupante.
Como Novo cientista relatou extensivamente, os LLMs atuais não são inteligentes em nenhum sentido significativo e são igualmente responsáveis por vomitar imprecisões convincentes como eles devem oferecer conselhos úteis. Além disso, suas respostas também vão refletir os vieses inerentes às informações que eles ingeriram.
De fato, muitos cientistas da IA têm cada vez mais a opinião de que os LLMs não são uma rota para o objetivo elevado da inteligência geral synthetic (AGI), capaz de combinar ou exceder qualquer coisa que um humano possa fazer – uma máquina que pode pensar, como Turing o teria colocado. Por exemplo, em um recente Pesquisa de pesquisadores de IAcerca de 76 % dos entrevistados disseram que period “improvável” ou “muito improvável” que as abordagens atuais conseguirão alcançar a AGI.
Em vez disso, talvez precisemos pensar nessas AIs de uma nova maneira. Escrevendo no diário Ciência essa semanauma equipe de pesquisadores de IA diz que “não devem ser vistos principalmente como agentes inteligentes, mas como um novo tipo de tecnologia cultural e social, permitindo que os seres humanos aproveitassem as informações que outros seres humanos se acumularam”. Os pesquisadores comparam o LLMS com “tecnologias anteriores como redação, impressão, mercados, burocracias e democracias representativas” que transformaram a maneira como acessamos e processamos informações.
Emoldurado dessa maneira, as respostas para muitas perguntas se tornam mais claras. Os governos podem usar o LLMS para aumentar a eficiência? Quase certamente, mas apenas quando usado por pessoas que entendem seus pontos fortes e limitações. As interações com os chatbots devem estar sujeitas a leis de liberdade de informação? Possivelmente, mas as esculturas existentes projetadas para dar aos ministros um “espaço seguro” para a deliberação interna deve ser aplicada. E pode, como Turing perguntou, as máquinas pensam? Não. Ainda não.
Tópicos: