+8618675556018

A IA está tornando os robôs mais compreensivos com os humanos, e uma nova geração de cães-robôs que entendem as pessoas está sendo treinada

Dec 27, 2023

Como os robôs orientados por código podem interagir melhor com os humanos? Recentemente, o Laboratório de Robótica Humano-Robô da Universidade Brown testou um novo sistema habilitado para IA que visa fazer com que os robôs entendam comandos humanos na linguagem cotidiana e executem tarefas com precisão.

 

O ponto chave desta pesquisa é que eles desenvolveram um novo sistema que permite aos robôs realizar tarefas complexas sem a necessidade de milhares de horas de treinamento em dados. Embora o treinamento tradicional de máquinas exija um grande número de exemplos para mostrar ao robô como entender e executar instruções em diferentes locais, este novo sistema permite que o robô opere em diferentes ambientes, fornecendo um mapa detalhado da área.

 

Os pesquisadores descrevem o papel do grande modelo de linguagem incorporado em seu sistema para permitir que os robôs entendam e executem tarefas, quebrando instruções sem grandes quantidades de dados de treinamento. O sistema não só é capaz de aceitar instruções em linguagem natural, mas também é capaz de calcular os saltos lógicos que o robô pode precisar com base no contexto do ambiente, o que torna as instruções muito mais simples e claras, incluindo o que o robô pode fazer, o que isso não pode ser feito e em que ordem.

 

Stefanie Tellex, uma das principais pesquisadoras do projeto e professora de ciência da computação na Brown University, disse: “Ao selecionar nossos sujeitos, consideramos especificamente um robô móvel se movendo pelo ambiente, e queríamos ter uma maneira pela qual o O robô poderia entender as instruções complexas e verbais que o humano estava lhe dando, como caminhar pela Thayer Street, em Providence, para me encontrar na cafeteria, mas evitando o CVS e parando primeiro no banco, e seguindo exatamente as instruções.

 

Se a pesquisa obtiver resultados, ela será aplicada a muitos robôs móveis na cidade no futuro, incluindo drones, carros autônomos, veículos de transporte não tripulados, etc., você só precisa usar a forma usual de comunicação com as pessoas para interagir com o robô, ele consegue entender com precisão suas instruções, possibilitando a aplicação de robôs móveis em ambientes complexos.

 

Para testar o sistema, os pesquisadores realizaram simulações usando o OpenStreetMap em 21 cidades e mostraram que o sistema executou a tarefa com precisão 80% do tempo, uma taxa de precisão muito maior do que outros sistemas similares, que normalmente atingem apenas cerca de 20% de precisão e não conseguem lidar com instruções e tarefas complexas.

 

Ao mesmo tempo, a equipe também realizou testes internos no campus da Brown University com o robô spot da Boston Dynamics, que é considerado um dos principais robôs quadrúpedes de uso geral do mundo, e o sucesso da verificação no local facilitará a aplicabilidade de o sistema para robôs de outros fabricantes.

 

Jason Xinyu, estudante de doutorado em ciência da computação e membro líder da equipe de pesquisa, explica como o sistema funciona com um exemplo.

Suponha que o usuário diga ao drone para ir à “loja” na “Rua Principal”, mas primeiro ao “banco”. Depois que a instrução é inserida, o software primeiro identifica os dois locais e, em seguida, o modelo de linguagem começa a combinar esses locais abstratos com a localização concreta do robô. Ao mesmo tempo, também analisa metadados de localização, como endereço ou tipo de localização, para auxiliar o sistema na tomada de decisões, neste caso, existem várias lojas próximas, mas apenas uma fica na rua principal, para que o sistema saiba onde ir; O modelo de linguagem então traduz os comandos em lógica temporal linear, que é um código matemático e uma notação para expressar os comandos; Finalmente, o sistema insere a localização mapeada atual nesta fórmula, dizendo ao robô para ir ao ponto A, mas depois do ponto B.

Uma simulação baseada no OpenStreetMaps será publicada online em novembro, permitindo que os usuários testem o sistema por si próprios. Os usuários podem inserir comandos de linguagem natural em uma página da web para guiar um drone simulado em uma tarefa de navegação para ajudar os pesquisadores a ajustar o software.

 

Isso significa que um projeto de “robô AI+” treinado em conjunto pelo público está chegando até nós.

Você pode gostar também

Enviar inquérito