Robotar kan lära sig att läsa av människors humör och sociala interaktion genom att enbart studera hållning och kroppsrörelser. Det tror en europeisk forskargrupp.
Det kan vara av uppenbart värde för en robot att veta om den möter en aggressiv person – för då kanske den bör fly. Eller kanske en person visar med sitt kroppsspåk att den inte vill prata – då kan roboten ta hänsyn till detta.
Det som forskarna klarlagt genom studier är att människor kan läsa både humör och sociala relationer mellan andra människor, genom att titta på deras kroppsrörelser och hållning.
Barnen förvandlas till streckgubbar för att ta bort alla ledtrådar som inte har med kroppsrörelser att göra. |
Filmade inspelningar transformeras till animerade streckgubbar för att säkerställa att informationen inte kommer någon annanstans ifrån, som från ansiktsuttryck eller ord.
Att människor lyckas med uppgiften bevisar att informationen existerar i kroppsrörelserna. Därmed borde också maskininlärning kunna användas för att läsa av känslorna, tror forskarna.
I en studie filmades lekande barn. Även i form av streckgubbar kunde försöksdeltagarna se om barnen var ledsna, uppjagade, aggressiva eller uttråkade. De 384 deltagarna i studien gav svar som var korrekta oftare än slumpen. Facit sattes av andra deltagare som fick se och höra videon omanipulerad.
Försöksdeltagarna fick också bedöma huruvida barnen samarbetade, tävlade, eller om något av barnen antagit en dominerande roll i relationen.
Med tillägg av ansiktsuttryck och röstläge skulle precisionen kunna bli ännu högre, gissar forskarna.
En lärarrobot skulle kunna se när eleven var uttråkad och serviceroboten skulle kunna känna igen arga eller stressade kunder, och grunda sin respons på detta.
Forskarna vill även att robotarna ska kunna läsa av graden av till exempel stress eller ilska.
– De potentiella tillämpningarna är enorma, säger en av forskarna, doktor Charlotte Edmunds på Warwick Business School
– Det görs idag tester med robotleveranser – men de robotarna tenderar att vandaliseras. Vårt mål är att skapa en robot som kan reagera på mänskliga känslor i svåra situationer och klara sig ur knipan på egen hand utan övervakning eller instruktioner. Idag fungerar det inte på det viset eftersom robotar bara följer enkla skript.
I en rapport publicerad i tidskriften Frontiers in Robotics and AI lät forskarna olika maskinlärningsalgoritmer studera de filmade barnen. En algoritm kallad k-NN lyckades bäst att klassificera deras känslor och relationer.
Forskarna testade även algoritmerna random forest, extra-tree och multi-layer perceptron.
De övriga forskarna arbetar på University of Plymouth, Donders Centre for Cognition på Radboud University i Nederländerna och Bristol Robotics Lab vid University of the West of England.