Cientistas do MIT desenvolveram um novo inteligência synthetic (AI) Sistema que pode ensinar -se a controlar praticamente qualquer robô sem o uso de sensores ou pré -treinamento.
O sistema reúne dados sobre a arquitetura de um determinado robô usando câmeras, da mesma maneira que os humanos usam os olhos para aprender sobre si mesmos à medida que se movem.
Isso permite que o controlador de IA desenvolva um modelo de auto-aprendizagem para operar qualquer robô-essencialmente dando às máquinas um senso humano de autoconsciência física.
Os pesquisadores conseguiram esse avanço criando um novo paradigma de controle que usa câmeras para mapear um fluxo de vídeo do “visuomotor Jacobian Area de um robô, uma representação dos pontos 3D visíveis da máquina, para os atuadores do robô.
O modelo de IA pode então prever movimentos motores de precisão. Isso torna possível transformar arquiteturas de robôs não tradicionais, como robótica suave e aqueles projetados com materiais flexíveis, em unidades autônomas com apenas algumas horas de treinamento.
“Pense em como você aprende a controlar seus dedos: você se mexe, observa, você se adapta”, explicou Sizhe lester lium aluno de doutorado na MIT Csail e pesquisador principal do projeto, em um Comunicado de imprensa. “É isso que nosso sistema faz. Experiências com ações aleatórias e descobre quais controles movem quais partes do robô.”
Relacionado: Cientistas queimaram, cutucados e cortaram seu caminho pela nova pele robótica que pode ‘sentir tudo’
As soluções típicas de robótica dependem da engenharia de precisão para criar máquinas para especificações exatas que podem ser controladas usando sistemas pré-treinados. Isso pode exigir sensores caros e modelos de IA desenvolvidos com centenas ou milhares de horas de ajuste fino, a fim de antecipar todas as permuções possíveis de movimento. Objetos segurados com apêndices semelhantes à mão, por exemplo, continua sendo um desafio difícil nas arenas da engenharia de máquinas e do controle do sistema de IA.
Entendendo o mundo ao seu redor
O uso da solução de câmera de mapeamento de “campo jacobiano”, em contraste, fornece uma solução de alta fidelidade de baixo custo para o desafio de automatizar os sistemas de robôs.
A equipe publicou suas descobertas no dia 25 de junho na revista Natureza. Nele, eles disseram que o trabalho foi projetado para imitar o método do cérebro humano para aprender a controlar máquinas.
Nossa capacidade de aprender e reconstruir as configurações 3D e prever o movimento em função do controle é derivado apenas da visão. De acordo com o jornal, “as pessoas podem aprender a escolher e colocar objetos em poucos minutos” ao controlar os robôs com um controlador de videogame e “os únicos sensores que exigimos são nossos olhos”.
A estrutura do sistema foi desenvolvida usando duas a três horas de vídeos de várias visualizações de um robô que executa comandos gerados aleatoriamente capturados por 12 câmeras de vídeo RGB-D de nível de consumo.
Essa estrutura é composta de dois componentes principais. O primeiro é um modelo de aprendizado profundo que essencialmente permite ao robô determinar onde ele e seus apêndices estão no espaço tridimensional. Isso permite prever como sua posição mudará à medida que os comandos de movimento específicos são executados. O segundo é um programa de aprendizado de máquina que traduz comandos de movimento genérico em código que um robô pode entender e executar.
A equipe testou o novo paradigma de treinamento e controle, informando sua eficácia contra os métodos tradicionais de controle baseados em câmera. A solução de campo jacobiana superou os sistemas de controle 2D existentes em precisão – especialmente quando a equipe introduziu a oclusão visible que fez com que os métodos mais antigos entrassem em um estado de falha. Máquinas que usam o método da equipe, no entanto, criaram com sucesso mapas 3D navegáveis, mesmo quando as cenas eram parcialmente ocluídas com desordem aleatória.
Depois que os cientistas desenvolveram a estrutura, ele foi aplicado a vários robôs com arquiteturas amplamente variadas. O resultado last foi um programa de controle que não requer mais intervenção humana para treinar e operar robôs usando apenas uma única câmera de vídeo.