
Novo robô de braço duplo realiza tarefas bimanuais aprendendo com simulação
English version below
Um robô bimanual inovador exibe sensibilidade tátil próxima à destreza de nível humano, usando Inteligência Artificial (IA) para informar as suas acções. Este desenvolvimento poderia revolucionar indústrias da agricultura, serviços domésticos e, eventualmente, recriar o toque em membros artificiais.
O novo sistema Bi-Touch, concebido por cientistas da Universidade de Bristol e baseado no Laboratório de Robótica de Bristol, permite aos robôs realizar tarefas manuais, detectando o que fazer a partir de um ajudante digital.
As descobertas agora divulgadas mostram como um agente de IA interpreta seu ambiente por meio de um retorno tátil e proprioceptivo e, em seguida, controla o comportamento dos robôs, permitindo detecção precisa, interação suave e manipulação eficaz de objectos para realizar tarefas robóticas.
Para a manipulação robótica, o robô aprende a tomar decisões tentando vários comportamentos para realizar tarefas designadas, por exemplo, levantar objectos sem deixá-los cair ou quebrá-los. Quando tem sucesso, recebe uma recompensa e, quando falha, aprende o que não fazer.
A manipulação bimanual e tátil será fundamental para a destreza do robô em nível humano. No entanto, este tópico é menos explorado do que as configurações de braço único, em parte devido à disponibilidade de hardware adequado, juntamente com a complexidade de projectar controladores eficazes para tarefas com espaços de acção de estado relativamente grandes.
English Version
New dual-arm robot achieves bimanual tasks by learning from simulation
An innovative bimanual robot displays tactile sensitivity close to human-level dexterity using Artificial Intelligence (AI) to inform its actions. This development could revolutionise industries in agriculture, domestic services and eventually recreate touch in artificial limbs.
he new Bi-Touch system, designed by scientists at the University of Bristol and based at the Bristol Robotics Laboratory, allows robots to carry out manual tasks by sensing what to do from a digital helper.
The findings now released show how an AI agent interprets its environment through tactile and proprioceptive feedback, and then control the robots’ behaviors, enabling precise sensing, gentle interaction, and effective object manipulation to accomplish robotic tasks.
For robotic manipulation, the robot learns to make decisions by trying various behaviours to carry out designated tasks, for example, lifting objects without dropping or breaking them. When it succeeds, it receives a reward, and when it fails, it learns what not to do.
Bimanual and tactile manipulation will be fundamental to the robot’s human-level dexterity. However, this topic is less explored than single-arm configurations, partly due to the availability of suitable hardware, along with the complexity of designing effective controllers for tasks with relatively large state-action spaces.