Örebroforskare vill underlätta fjärrstyrning av underbattensrobotar i mörka och grumliga förhållanden genom att projicera objekt som de skulle sett ut i klart vatten.
Ett pilotprojekt, Saight, utvecklar ett proof-of-concept som visar hur operatörer kan få förbättrade data via exempelvis överlagrad information på en skärm.
AR-verkligheten byggs upp av en kombination av sensordata, historisk data och visuell återkoppliing från undervattensroboten.
Mörka och grumliga vatten är en utmaning med undervattensrobotar oavsett om de kör autonomt eller styrs av en operatör.
![]() |
Martin Längkvist |
– Det här arbetet kan utgöra en viktig grund för autonom undervattensnavigering. Om vi lyckas utveckla systemet kommer vi att kunna förbättra säkerheten och effektiviteten vid användning av fjärrstyrda fordon i utmanande miljöer. Det skulle i sin tur leda till mer pålitliga och säkra inspektioner av kritisk infrastruktur som till exempel oljerörledningar, säger Martin Längkvist, universitetslektor i datavetenskap och teknisk ledare för Saight.
– Utmaningarna med projekter är att effektivt synkronisera data från flera sensorer som till exempel kamera, sonar och telemetri, samt att utveckla robusta maskininlärningsmodeller som kan hantera ofullständig eller brusig sensordata i en oförutsägbar miljö
Saight är ett samarbete mellan Örebro universitet, Saab Dynamics och mjukvaruutvecklaren Piktiv. Det är ett pilotprojekt inom AI All kopplat till den strategiska inriktningen Smart industri.
Projekttiden är november 2024 till april 2025.