Skriv ut

Det vore mycket enklare att vara självkörande bil om det inte hela tiden dök upp en massa nya okända föremål i trafiken. Ny sensorfusion och bättre radar kommer att göra jobbet enklare.

Ladda ner artikeln här (länk, pdf).
Fler tekniska rapporter finns på etn.se/expert

Nästa generation radarsensorer för förar­assi­stans och självkörning kommer använda Dynamic Grid och annan integrerad sensorfusion. Det kommer att vara avgörande för att överkomma de begränsningar som finns i dagens lösningar och det kommer att bli vad som möjliggör framtidens självkörning.

Ett fordonssystem för förarassistans och självkörning har vanligen följande komponenter: en eller flera sensorer, sensorfusion, själva körfunktionen samt den faktiska kontrollen över fordonet i form av styrning, gas­pådrag och bromsar.

Förarassistansfunktioner av idag – exempelvis automatisk nödbroms (AEB), adaptiv farthållning (ACC ) och filföljning – används i välstrukturerade trafikmiljöer och har alla ett och samma uppdrag: att hålla reda på objekt som alla är av liknande slag. Dessutom är antalet körscenarier ganska begränsat.

För ett sådant uppdrag duger lågupplösta sensorer. En lågupplöst radar rapporterar för varje detektering dels en 2D-position och dels en dopplerhastighet. Högst två eller tre detekteringar används för varje detekterat objekt. En lågupplöst kamera levererar detekteringar som är oberoende av den interna bildsensorns upplösning. Detekteringen levereras i form en ram som avgränsar det detekterade objektet från dess omgivning, i bilden och i verkligheten. Ofta görs en enda detektering per objekt.

För att detektera dynamiska objekt med hjälp av data från multipla sensorer, använder dagens ADAS-system en metod som kallas dynamisk objektfusion (Dynamic Object Fusion, DOF). Algoritmen baseras på Kalmanfiltrering och kan köras även på en mindre kraftfull cpu.

Kalmanfilter passar bra med lågupplöst kamera och radar eftersom lågupplösta sensordata är just vad de vill ha som indata.

Alla typer av objekt som kan förekomma i trafiken behöver dock vara kända i förväg när systemet konstrueras. Det finns inget stöd för att hantera nya okända typer av ­objekt.

DOF kan hantera uppgiften att följa dynamiska objekt – om de befinner sig på ett visst avstånd. Stödet för näraliggande objekt är begränsat, liksom stödet för objekt som är utsträckta. DOF kan heller varken detektera statisk omgivning eller fria ytor.

Nästa generation radarsensorer levererar större datavolymer. De levererar samma typ av data som dagens sensorer – ­2D-positioner och dopplerhastigheter – men skillnaden är att de levererar betydligt fler detekteringar. Därmed går det att urskilja objekt med större detaljnoggrannhet.

Medan dagens kameror detekterar objekt kommer nästa generation kameror ofta att utföra så kallad ”semantisk annotering”. Det innebär att varje enskild bildpunkt tilldelas en kategori efter vilken typ av objekt punkten sitter på. Därmed får sensorfusionen mer detaljer om scenen och objekten att arbeta med.

Nästa generation körfunktioner kommer att innebära nya krav och utmaningar. Medan dagens körfunktioner typiskt stöder motorväg kommer morgondagens även att kunna aktiveras i stadsmiljöer.

Där hittar vi för det första fler typer av trafikanter: fotgängare, cyklar, rullstolar, med mera. Dessutom kommer det att vara förhållandevis vanligt att det dyker upp dynamiska objekt som inte var kända när modellen designades. Också de måste kunna upptäckas.

Den nya kravbilden för med sig nya krav på hur trafikmiljön måste modelleras. Objektens utsträckning i rummet måste ingå i modellen för att man exempelvis ska kunna ange korrekt körfältstillhörighet för ett dynamiskt objekt.

För att så långt som möjligt kunna förutspå rörelser (Object Motion Prediction) måste kinematiken för varje dynamiskt objekt bestämmas.

Utöver dynamiska objekt måste även statiska objekt kunna hanteras. När automatiserad styrning och vägplanering ingår bland funktionerna krävs dessutom kartläggning av fria ytor (Free Space).

Vi behöver även kunna upptäcka och göra förutsägelser på kategorin ”okänt dynamiskt objekt”. För det vore en oöverstiglig uppgift att försöka räkna upp och modellera alla tänkbara typer av rörliga objekt i förväg.

Begränsningar i nuvarande metoder
Dagens metoder för sensorfusion kombinerar DOF med en Static Occupancy Grid (SOG) – ett rutnät som visar statiskt upptagna områden.

DOF med Kalmanfilter presterar inte så bra när objekten är små och utsträckta i rummet. Främsta orsaken till det är att algo­ritmerna gör grundantagandet att objekt är punkter – och det stämmer inte alls med verkligheten. De kräver att alla objekttyper är kända i förväg och löper därmed en risk att missa nya typer av objekt.

Om man använder sensorer med hög upplösning krävs att data klustras för att det ska gå att applicera Kalmanfilter. Eftersom sådana kluster formas av detekteringar uppstår ofta klustringsfel som svårligen kan kan korrigeras i senare bearbetning. Resultatet blir objektfusion med dålig prestanda.

SOG-­meto­der täcker både in statiska objekt och visar ytor som är upptagna. För ett gränssnitt är detta visserligen tillräckligt. Men en SOG-grid innehåller även dynamiska objekt och de ger upphov till felaktiga indikeringar i form av karaktäristiska ”svansar” som är falska indikationer på att en yta är upptagen.

För att komma runt problemet har man försökt att utesluta detektioner av dynamiska objekt från att läggas in i SOG-gridden. DOF-fusionen får avgör vilka mätningar som härrör från dynamiska objekt.

Kvaliteten på den kopplingen är starkt beroende av hur klustren formades. Fel från klusterformningen sprids via objektfusionen vidare till din SOG-grid.

Dynamic Grid är konsistent by design
Lösningen på detta problem är integrerad sensorfusion. Den detekterar både statiska och dynamiska objekt, och dessutom fria ytor.

En Dynamic Occupancy Grid (DOG, eller kort bara Dynamic Grid) använder sensor­fusion på låg nivå och integrerar den på ett sätt som gör att den inte blir beroende av klusterformning. Därmed uppstår inte tidiga fel som kan spridas vidare.

Klassificeringen av statiska och dynamiska objekt baseras på mer information. En Dynamic Grid tar hänsyn till objektens (”partiklarnas”) dynamik genom att ansätta olika hypoteser för deras hastighet och riktning. Därmed blir prediktionerna bättre.

Per design finns inte längre någon konflikt mellan dynamiska objekt och den statiska trafikmiljön eftersom de båda, med kort fördröjning, härleds från en och samma modell.

Gridmetoder kan även hantera okända typer av dynamiska objekt, vilket ytterligare förbättrar deras användbarhet i stadsmiljöer. Om en sensor – säg en kamera – levererar objektklassificering – som semantisk segmenteringsdata – är detta information som direkt kan adderas till en grid-metod. Detta bidrar till att förbättra robustheten i extraktion av ett trafikobjekt. Och det ger detaljinformation om objektets klass. Och det kan användas för att upptäcka fritt utrymme under exempelvis automatisk parkering.