Os robôs em 2024 são muito mais complexos do que os seus antecessores de fábrica com um único braço. Os robôs modernos podem correr, pular, faça as divisõese até mantenha uma conversa básica. Ao mesmo tempo, apesar de décadas de avanços técnicos e de milhares de milhões de dólares de investimento, mesmo os sistemas robóticos mais avançados ainda lutam para realizar muitas tarefas quotidianas que os humanos consideram certas, como dobrar roupa ou empilhar blocos. Ironicamente, os robôs são muito ruins em fazer coisas que consideramos fáceis. Esse é o caso por enquanto, pelo menos. Novos avanços no treinamento de robôs inspiram-se em massa modelos populares de grandes linguagens, como ChatGPT, podem mude isso… eventualmente.
Os robôs estão por toda parte, mas suas habilidades são limitadas
Os robôs estão cada vez mais visíveis na vida cotidiana. Fábricas e instalações de produção têm usado braços robóticos simples de tarefa única durante décadas para aumentar rapidamente a produção. Na logística, grandes marcas como Amazon e Walmart já estão usando robôs um pouco mais avançados trabalhando ao lado de humanos para mover objetos pesados e separar pacotes. A DHL usa Robôs “Stretch” da Boston Dynamics para alcançar caixas e movê-las para sistemas transportadores. Alguns restaurantes fast-casual como o Denny’s têm até experimentou bots de entrega em várias prateleiras que embaralham pratos de comida nas mesas. Chipotle tem seu próprio Protótipo de descaroçamento de abacate guiado por IA. Amazônia sozinha supostamente já tem mais de 750.000 robôs em suas operaçõese esse número está crescendo.
Todos esses sistemas são impressionantes em seus aspectos particulares, mas nenhum deles pode competir com um ser humano quando se trata de muitas tarefas mundanas. Um modelo de computador avançado com o software program certo poderia ensinar facilmente até mesmo o jogador de xadrez mais experiente, mas seria necessário um feito de engenharia para que o mesmo robô escolhesse uma única peça de xadrez de uma pilha desordenada. Os robôs produtores de café provavelmente poderiam servir bebidas mais rapidamente do que um barista humano, mas teriam dificuldade se lhe pedissem para encontrar uma xícara velha e morna em algum lugar de uma sala e trazê-la de volta à vida no micro-ondas.
‘Robôs podem ir até Marte, mas não podem pegar mantimentos’
Em geral, os robôs são bons em muitas coisas com as quais os humanos lutam e ruins em muitas coisas que os humanos consideram fáceis. Esta observação geral, conhecida pelos especialistas do mundo da robótica como “O Paradoxo de Moravec”Remonta a um livro de 1988 do professor da Carnegie Mellon, Hans Moravec. Isso permaneceu frustrantemente verdadeiro quase quarenta anos depois. Então, o que exatamente está acontecendo aqui? O robotosista e professor da Universidade da Califórnia em Berkeley, Ken Goldberg, tentou decifrar o que explica esses “robôs desajeitados” durante uma palestra TED no ano passado.
Goldberg disse que os três principais desafios para os robôs são questões de percepção, controle e física. Do lado da percepção, os robôs dependem de câmeras e outros sensores como o lidar para “ver” o mundo ao seu redor. Embora essas ferramentas estejam em constante aperfeiçoamento, elas ainda não são tão confiáveis quanto os olhos humanos. É por isso que se sabe que os chamados carros autônomos cometem erros se expostos a luzes brilhantes ou, como foi o caso em São Francisco no ano passado, outros carros com cones de trânsito laranja no capô. Robôs modernos de classificação de armazéns como Pardal da Amazôniaentretanto, são bastante hábeis quando limitados aos seus parâmetros restritos, de acordo com um recente New York Occasions históriamas supostamente luta com uma “escolha direcionada”.
(Relacionado: Pesquisadores torturaram robôs para testar os limites da empatia humana)
“Um pedido da Amazon pode ser qualquer coisa, desde um travesseiro, um livro, um chapéu, até uma bicicleta”, disse Fumiya Iida, professora de robótica da Universidade de Cambridge. disse em um comunicado. “Para um ser humano, geralmente é fácil pegar um merchandise sem deixá-lo cair ou esmagá-lo – sabemos instintivamente quanta força usar. Mas isso é realmente difícil para um robô.”
Isso leva ao segundo problema apontado por Goldberg: o controle. Embora os humanos e muitos animais como os cães tenham se beneficiado de milhões de anos de evolução para sincronizar nossa visão com nossos membros, os robôs não têm o mesmo luxo. Câmeras e sensores em uma parte de um robô muitas vezes podem ficar fora de sincronia com os braços mecânicos ou garras encarregadas de manipular e objetos. Essa incompatibilidade pode fazer com que os robôs deixem cair objetos repentinamente. Essa é parte da razão pela qual o robô que atira pratos escaldantes de ovos e bacon para os clientes de Denny só traz o prato para a mesa. Um garçom humano ainda precisa pegar os pratos e entregá-los ao restaurante.
Isso não impediu que alguns tentassem imaginar a existência dessas capacidades. Durante um evento de imprensa amplamente assistido em Warner Brothers Studios no início deste anoos tão elogiados robôs humanóides “Optimus” da Tesla passearam pelo espaço do evento verificando identidades, preparando coquetéis e puxando conversa com os convidados. Na realidade, essas máquinas “autônomas” eram tão reais quanto os falsos cenários de Hollywood que as cercavam. Reportagens após o evento revelaram que os robôs eram na verdade teleoperado por trabalhadores próximos da Tesla. Mas embora essa arte performática hiperbólica seja par para o curso para projetos Musktambém aponta para um problema maior enfrentado pela robótica. O tipo de tarefas que a Optimus não conseguiu realizar no evento – manobrar objetos e servir bebidas simples – são notoriamente difíceis para os robôs em geral.
Optimus me faça uma bebida, por favor.
Isso não é totalmente IA. Um humano está prestando assistência remota.
O que significa o dia da IA no próximo ano, onde veremos o quão rápido a Optimus está aprendendo. pic.twitter.com/CE2bEA2uQD
-Robert Scoble (@Scobleizer) 11 de outubro de 2024
A questão closing, a física, é algo que nem os humanos nem os robôs podem realmente controlar. Em sua palestra, Goldberg dá o exemplo de um robô empurrando uma garrafa sobre uma mesa. O robô usava a mesma força e empurrava a garrafa, da mesma forma, todas as vezes, mas ela sempre terminava em uma posição um pouco diferente. Essa variação depende em parte da topografia microscópica da superfície da mesa à medida que a garrafa desliza sobre ela. Os humanos lidam com essas pequenas variações muitas vezes todos os dias, mas instintivamente entendemos como corrigi-las por meio da experiência.
Na maioria dos casos, os robôs também começam a ter dificuldades assim que recebem a tarefa de fazer qualquer coisa fora do conjunto restrito de ambientes de teste para os quais foram criados. Embora um humano provavelmente fosse capaz de descobrir como escapar de uma sala aleatória, até mesmo um robô altamente móvel ficaria confuso e perderia tempo procurando portas em lugares absurdos, como o chão e o teto. Ironicamente, suas pequenas nuances como essas estão se mostrando mais difíceis de serem contabilizadas pelos robôs do que feitos aparentemente muito mais impressionantes, como levantar objetos pesados ou até mesmo viajar no espaço.
“Os robôs podem ir até Marte, mas não podem pegar os mantimentos”, acrescentou Iida.
Ensinando robôs a aprenderem uns com os outros
Esse é o dilema geral até agora, mas os pesquisadores atualmente trabalham nos chamados “cérebros robóticos de uso geral”Esperam poder aproveitar algumas das lições aprendidas com grandes modelos de linguagem recentes e usá-las para criar robôs muito mais adaptáveis. O campo de a robótica estagnou em comparação com software program e IA nos últimos anos principalmente devido a uma disparidade nos dados de treinamento. LLMs como o GPT da OpenAI foram capazes de dar saltos tão grandes porque foram treinados em trilhões de parâmetros de artigos, livros, vídeos e imagens extraídos da Web. Se isso period authorized ou não continua contestado em tribunal.
Deixando de lado as questões jurídicas, não há equivalente actual à Web quando se trata de dados de treinamento de robôs. Como os robôs são objetos físicos, a coleta de dados sobre como eles executam a tarefa geralmente leva tempo e é reservada em laboratórios ou outros espaços limitados. Os robôs também são, em sua maioria, específicos para tarefas, portanto, os dados de uma máquina de carregamento de carga podem não ajudar realmente a melhorar um robô que seleciona objetos de uma lixeira.
Mas vários grupos estão agora tentando ver se é possível agrupar essencialmente dados coletados de muitos tipos diferentes de robôs em uma rede neural profunda unificada que pode então ser usada para treinar novos robôs de uso geral. Um desses esforços, chamado de projeto RT-Xestá sendo investigado por pesquisadores do Google, da UC Berkeley e de 32 outros laboratórios na América do Norte, Europa e Ásia. Esses pesquisadores já criaram o que eles estão chamando o “maior conjunto de dados de código aberto de ações robóticas reais existente” do mundo.
O conjunto de dados inclui experiências do mundo actual de robôs que completam cerca de 500 tipos diferentes de tarefas. Os pesquisadores podem então pegar um robô e usar o aprendizado profundo para treiná-lo nesse conjunto de dados em um ambiente simulado. Goldberg descreveu processos como esse como semelhantes a um robô “sonhando”. No caso do RT-X, os robôs são capazes de identificar dados de treinamento relevantes para seu objetivo específico, como melhorias nos braços mecânicos, e usar isso para melhorar a si mesmos. Escrevendo em Espectro IEEEO pesquisador do Google Sergey Levine e o cientista da DeepMind Karol Hausman compararam isso a um ser humano aprendendo a andar de bicicleta ou dirigir um carro usando o mesmo cérebro.
“O modelo treinado no conjunto de dados RT-X pode simplesmente reconhecer que tipo de robô está controlando a partir do que vê na observação da própria câmera do robô”, escreveram os pesquisadores.
Esperançosamente, a robótica é o “cérebro” mais generalizado que poderia aumentar à medida que mais dados fossem coletados e possivelmente tornar novos robôs humanóides como os produzidos pela Determine e pela Tesla mais capazes de se adaptar aos seus ambientes. Já estamos começando a ter uma ideia de como isso poderia ser. No mês passado, a Boston Dynamics lançou um vídeo mostrando seu robô Atlas em formato humano localizando agarrando e movendo as tampas do motor em uma sala de demonstração.
A Atlas foi capaz de concluir essas tarefas, afirma a Boston Dynamics, de forma totalmente autônoma e sem quaisquer “movimentos prescritos ou teleoperados”. Crucialmente, a demo mostra Atlas às vezes cometendo erros, mas depois ajustando e corrigindo-os rapidamente.
Claro, agora pode estar fabricando Negronis ou dobrando roupas, mas dá uma ideia do rumo que a indústria pode estar tomando.