Skriv ut

Forskare på Chalmers har undersökt om det går att lära en robot att lösa uppgifter mer likt människor. De har alltså utvecklat en AI som utvinner övergripande information istället för specifik vid en demonstration. Metoden tros kunna snabba på lärandeprocessen för framtida robotar.

Chalmersforskarna lät människor utföra samma uppgift – att stapla kuber på varandra – tolv gånger i en VR-miljö. Varje gång utfördes uppgiften på olika sätt och människornas rörelser registrerades med hjälp av lasersensorer.

Karinne Ramirez-Amaro

− När vi människor har en uppgift delar vi upp den i en kedja av mindre mål på vägen, och varje handling vi utför syftar till att uppfylla ett sådant delmål, säger Karinne Ramirez-Amaro, forskarassistent på institutionen för elektroteknik, i ett pressmeddelande och adderar:

– Istället för att lära roboten en exakt imitation av mänskligt beteende fokuserade vi på vad målet var med alla de handlingar som människorna i studien utförde.

Metod gick ut på att systemet extraherade meningen med delmålen, och byggde bibliotek bestående av olika handlingar för varje delmål. Därefter skapade systemet en AI i form av ett planeringsverktyg som användes av en så kallad TIAGo-robot. Den är designad för att arbeta inomhusmiljöer, med en utdragbar torso och en arm som kan gripa och flytta föremål.

När sedan roboten fick i uppgift att stapla kuber valde den själv bland flera möjliga handlingar den sekvens som, efter omständigheterna, ledde till att uppgiften utfördes. Den planerade alltså själv hur den skulle göra för att lyckas stapla kuberna trots att förutsättningarna förändrades lite vid varje försök.

Maximilian Diehl

− Resultaten visade att vår metod kan skapa planer som utförs korrekt till 92 procent efter en enda mänsklig demonstration, och hela 100 procent korrekt när informationen från alla tolv demonstrationer användes, säger Maximilian Diehl, doktorand vid institutionen för elektroteknik och ledande forskare bakom projektet, i pressmeddelandet.

Studie har presenterats på en av de största och mest inflytelserika konferenserna om intelligenta robotar och system, IROS 2021.

Forskningsprojektet ”Learning & Understanding Human-Centered Robotic Manipulation Strategies” pågår mellan 2020 och 2025. Närmast ska forskarna undersöker hur robotar kan kommunicera med människor, och förklara vad som gått fel och varför, om de inte lyckas utföra en uppgift.

– Utmaningarna ligger främst inom datorseende, kontroll och säker interaktion med människor. Men vi tror att vår metod kommer att bidra till att snabba på lärandeprocessen för robotar, så att de kan ta in alla de aspekterna och tillämpa dem i nya situationer, säger Maximilian Diehl.

Forskningen har utförts tillsammans med Chris Paxton, forskare på Nvidia. med finansiering från Chalmers AI Research Centre (CHAIR).