Amy Loutfi får pengar från Vetenskapsrådet för att med hjälp av AI-tekniken deep learning försöka lära robotar att förstå talade instruktioner.
– Vår vision är att vi en dag ska kunna instruera en robot med vanligt språk, säger Amy Loutfi, som är professor i informationsteknologi vid Örebro universitet och är knuten till Centrum för tillämpade autonoma sensorsystem, AASS.
– Du ska kunna packa upp din nya robot hemma och tala om för den vad den ska göra utan att programmera den i detalj.
Projektet finansieras med 3,7 miljoner kronor.
Forskarnas ska försöka koppla ord som människor använder för att beskriva handlingar och föremål till sensordata som roboten samlar in om sin omgivning. Strategin kallas perceptuell förankring.
– Vi vill att roboten själv ska lära sig hur människor utför vardagliga sysslor genom att observera hur vi beter oss hemma. I ett kök skulle en robot till exempel kunna lära sig att koppar är till för att innehålla vätska och för att dricka ur, medan skedar användas till att röra om med.
Algoritmerna som ska identifiera särdragen i sensordata tas fram med hjälp av den populära tekniken deep learning, som på sistone gjort stora framsteg inom bland annat språktillämpningar.
– Projektet kan också leda till att vi kanske kan få en bättre förståelse av hur den mänsklig hjärnan fungerar genom att återskapa samma förmågor i en maskin.