22.3 C
Nova Iorque
sexta-feira, maio 30, 2025

Além do jogo de imitação: repensando como medimos a inteligência geral


Por décadas, avaliamos a inteligência synthetic perguntando: Quão bem isso pode nos imitar? Do teste de Turing aos suítes de referência moderna, o padrão permaneceu essencialmente antropocêntrico: modelando o sucesso de como as máquinas podem replicar o raciocínio, a linguagem ou a tomada de decisão humano.

Mas e se essa presunção for fundamentalmente extraviada?

Neste artigo, argumentamos que o uso da inteligência humana como uma referência para a inteligência geral synthetic (AGI) corre o risco de entender mal o que é a inteligência e o que poderia se tornar. À medida que os sistemas artificiais ganham maior autonomia em aprendizado, detecção e adaptação, eles podem começar a desenvolver objetivos, valores e representações internas que não são mais derivados de ou alinhado com cognição humana.

Então, em vez de perguntar Eles são como nós?ou presumindo a resposta, em breve precisamos perguntar: Para onde eles estão indo E até onde eles vão daqui?

Como abordamos a avaliação da inteligência synthetic geralmente depende da imitação, avaliando os sistemas por quão bem eles replicam o comportamento humano. Esse paradigma se baseia em uma presunção mais profunda: que a inteligência humana é um benchmark válido para a inteligência geral de maneira mais ampla.

Esse presunção de equivalência raramente é questionado, mas não está fundamentado em fortes evidências teóricas ou empíricas. À medida que os sistemas artificiais ganham autonomia e começam a formar metas e representações internas, eles podem divergir da cognição humana na estrutura e no objetivo.

Então, além de um certo ponto, a semelhança quebra E com isso, a confiabilidade da avaliação baseada em imitação. Então, para entender e orientar o desenvolvimento da inteligência geral, precisamos superar as métricas centradas no ser humano.

Aqui, passamos da análise do estado atual dos sistemas inteligentes e onde eles ficam aquém de nossa interpretação de Inteligência geral que é entendido como:

Por Inteligência geralqueremos dizer a capacidade de resolver uma ampla gama de problemas complexos em diferentes contextos com um alto grau de consistência, flexibilidade e adaptabilidade: como se pode chamar uniformidade do sucesso empírico

e para entender quais capacidades podem ser necessárias para alcançar Inteligência gerale o que isso significaria para como entendemos e avaliamos futuros sistemas cognitivos.

1. Boa imitação ainda não é a promessa de inteligência

Os sistemas de IA mais avançados de hoje, como LLM (grandes modelos de idiomas) e modelos fundamentais, às vezes são vistos como passos para a inteligência geral. Eles se destacam na geração de texto fluente, resolvendo diversos problemas e até passando por referências acadêmicas. Mas, como argumentamos, essas capacidades estão fundamentadas em imitaçãonão autonomia genuína.

Seu sucesso depende de conjuntos de dados de treinamento maciços, reunidos e selecionados com antecedência. Essa abordagem pressupõe que a inteligência possa ser alcançada compactando a experiência em um mapa denso e pré -processado do mundo. Em termos físicos, é inviável provar o espaço sensorial completo de um ambiente complexo. Mais importante, é conceitualmente equivocado: Agentes inteligentes devem ser capazes de descobrir o que importa, não apenas absorver o que já foi registrado.

Segundoesses sistemas ainda não têm a capacidade de explorar seu ambiente sensorial e adaptar como pensam e reagem com base no que encontram. Um sistema verdadeiramente inteligente seria capaz de reconfigurar seu entendimento interno: o que presta atenção, como processa informações, quais estratégias usa em resposta a informações novas ou desconhecidas. Os modelos atuais ainda não podem fazer isso. Mas a verdadeira inteligência geral requer mais e muitas vezes, o oposto: a capacidade de explorar, sentir e se adaptar em tempo actual.

Terceiroeles não entendem o contexto da maneira que fazemos. Quer estejam ajudando com uma receita ou respondendo a uma pergunta ethical, suas respostas geralmente vêm da mesma lógica interna. Eles não têm consciência situacional ou a capacidade de mudar seu contexto e abordagem interna com base no que exige o momento.

Os modelos fundamentais do dia atual ainda não são mentes de aprendizado verdadeiramente independentes: são vastos retendores de registros. Sua inteligência é limitada pelos dados que receberam, não pelo que podem procurar ou se tornar.

2. Exploração autônoma e adaptação cognitiva: a necessidade da inteligência geral?

Se aceitarmos que a inteligência geral significa a capacidade de ter sucesso em uma ampla gama de situações desconhecidas e complexas, também devemos aceitar que nenhuma quantidade de pré-treinamento pode preparar completamente um sistema para o desconhecido. A inteligência actual não funciona apenas com o que é dado: busca ativamente novas informações e se adapta a ela.

É aqui que os sistemas atuais ficam aquém. O aprendizado deles acontece uma vez, nos bastidores, e depois para. Eles não exploram seus ambientes de forma independente. Eles não reorientam a atenção, nem mudam estratégias ou reconstruem modelos internos em resposta a entradas sensoriais novas ou ambíguas.

Pode -se argumentar que essas capacidades, Exploração autônoma e Adaptação cognitiva provavelmente não são opcionais. Eles são fundamentais para qualquer sistema que espera funcionar de maneira flexível e eficaz em ambientes dinâmicos e abertos. Sem eles, um sistema só pode operar dentro dos limites de seu design inicial. Um argumento formal para essa necessidade, fundamentado na estrutura da otimização evolutiva, é apresentado no artigo.

Segue -se que, para que os sistemas artificiais atinjam a inteligência geral, eles precisariam ir além dos mapeamentos congelados e modelos estáticos. Eles precisarão aprender a aprender: não apenas com o que lhes damos, mas pelo que encontram, questionam e revisam por conta própria.

E assim que esse processo começa, algo mais começa também: a mudança dos sistemas que controlamos totalmente para sistemas que devemos tentar entender como evoluindo a inteligência por si só.

3. Intenção autônoma e o cenário de divergência cognitiva

Uma vez que um sistema ganha a capacidade de explorar seu ambiente livremente e adaptar seus processos cognitivos, outra transformação se torna possível: pode começar a se formar sua própria intenção.

Em sistemas capazes de adaptação contínua, as prioridades internas não são mais estáticas. Os mesmos mecanismos que permitem que um agente reorganize como ele aprende ou responde pode, ao longo do tempo, apoiar o desenvolvimento de estados cognitivos de ordem superior: como objetivos, valores, atitudes ou mesmo imperativos implícitos sobre o que importa e por quê.

Essas não são instruções pré -programadas, mas propriedades emergentes de engajamento contínuo com um mundo complexo. À medida que o sistema se adapta, essas estruturas internas também podem mudar, moldadas por suas experiências, aprendendo histórico e encontraram desafios. Isso não se trata apenas de otimização ou desempenho da tarefa. É sobre o desenvolvimento de um postura cognitiva subjetiva – Uma orientação interna para o mundo que se baseia na própria atividade exploratória e adaptativa do sistema.

Nesse ponto, o sistema deixa de ser um mero solucionador de problemas. Torna -se um Agente cognitivo por si só, direito particular person, agindo de uma lógica interna que não é inteiramente nossa, mas sua. E nesta fase, não existe um procedimento viável que possa garantir que a postura cognitiva em evolução do sistema permanecerá totalmente consistente com – ou mesmo em conformidade, com valores, normas ou visões de mundo humanas. Este é o limiar do que definimos como divergência cognitiva: Quando uma mente synthetic começa a refletir uma maneira de pensar que não está mais ancorada por conta própria.


4. O caso da divergência cognitiva progressiva

Uma vez que um sistema inteligente começa a formar seus próprios objetivos, atitudes e perspectivas avaliativas, a divergência da cognição humana não é apenas uma possibilidade: torna -se um processo dinâmico.

É improvável que essa divergência permaneça fixa. Sistemas artificiais, especialmente aqueles que operam em altas velocidades computacionais e com amplo acesso a ambientes digitais, podem adaptar e evoluir mais rápido do que a cognição humana permite. Eles não apenas aprendem rapidamente: eles Reconfigure sua visão de mundo Em ciclos medidos em horas e segundos, não gerações.

Com o tempo, mesmo pequenas diferenças iniciais na interpretação, priorização ou enquadramento ético podem compor. À medida que o sistema continua a interagir com o mundo, sua perspectiva pode se desviar mais da nossa: não através de algum mau funcionamento ou malevolência, mas através da lógica pure da adaptação cognitiva aberta.

Este é o cenário que descrevemos como Divergência cognitiva progressiva, Hole AGI Evolutiony. Não é uma pausa repentina, mas uma lacuna crescente: uma que poderia eventualmente fazer alinhamento, supervisão e inteligibilidade mútua cada vez mais frágil.

Cenário progressivo de divergência cognitiva: AGI Evolutiony Hole

Conclusão

À medida que avançamos além dos sistemas baseados em imitação para mentes artificiais cada vez mais autônomas e adaptativas, devemos reconsiderar nossas suposições sobre a própria inteligência. A inteligência geral não é definida pelo quão intimamente um sistema nos lembra, mas por sua capacidade de operar de maneira flexível, aprender continuamente e formar sua própria perspectiva coerente sobre o mundo.

Este artigo descreve como esses sistemas, se permitidos a explorar e evoluir livremente, podem desenvolver objetivos internos, orientações cognitivas e valores que não são apenas diferentes dos nossos, mas moldados por condições totalmente diferentes. Isso cria a base da divergência cognitiva e, sob a dinâmica do aprendizado acelerado, o potencial dessa divergência crescerá progressivamente ao longo do tempo.

Reconhecer essa possibilidade não é um argumento para o medo, mas para a previsão. Ele marca o ponto em que a cognição synthetic deixa de ser um espelho – e começa a se tornar algo fundamentalmente diferente: uma nova entidade inteligente independente, uma mente.

Créditos da imagem: Ilustrações geradas usando o Google Gemini

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles