Skriv ut

Apple är först att släppa en mobiltelefon med ett artificiellt neuronnät på processorchipet. Fler mobiltillverkare kommer att följa efter.

I går hade Apple släppfest med nya telefoner, klockor och teveapparater. 

Det som väckte kanske mest diskussioner  – utöver det absurda priset på Iphone X – är att användaren kan logga in eller identifiera sig för mobilen genom att visa ansiktet för kameran.

Jo, funktionen kan kringgås med normal inloggning, vilket Apples mjukvaruchef Craig Federighi förnedrande nog tvingades göra under demonstrationen igår, eftersom någon glömt aktivera funktionen.

Apple Iphone X belyser ditt ansikte med IR-ljus i 30 000 punkter. Avståndet till punkterna bildar en 3D-modell av ditt huvud.

Därefter tar artificiell intelligens över. 3D-modellen jämförs med facit för ditt ansikte lagrat i ett artificiellt neuronnät. Även om du för dagen har mustasch, skotermössa, halsduk och glasögon och flyttat ögonbrynen med ett tjockt pennstreck ska Apples inloggning känna igen dig.

Maskininlärningstekniken djupa neuronnät har gjort fantastiska framsteg inom bland annat bild- och rösttolkning där den idag ofta är lika bra eller bättre än människan på vissa mönsterigenkänningsproblem. 

Det nya i Iphone X är att processorn A11 Bionic har ett neuronnät integrerat på chipet.

Den vanliga modellen idag är att funktioner som rösttolkning och översättning sköts av neuronnät i molnet. Telefonen skickar sensordata till molnet och får tillbaka en analys. 

Ibland görs en enklare analys direkt i telefonen i ett neuronnät implementerat i mjukvara. Du kan se det i rösttolkning exempelvis: den första snabbt gjorda lokala tolkningen av vad du sade, ersätts efter en kort stund av en snäppet bättre när analysen från molnet levererats.

Men Apple är härmed pionjär i en kommande trend att flytta neuronnätsintelligensen till ändnoderna.

Apple har inte släppt tekniska detaljer, men nätet på chipet borde ge telefonen bättre strömförbrukning för maskininlärningsuppgifter, liksom kortare responstider och högre kvalitet. Kanske behövs inte ens längre en second opinion från molnet?

Utöver ansiktsigenkänning är det – som det brukar heta – endast fantasin som sätter gränser för vad AI-kärnan kommer att användas till. 

Iphone X använder den till att skapa en animerad emoji som härmar användarens ansiktsuttryck. Andra funktioner är på väg. 

Neuronnätet borde kunna användas för bildigenkänning tror Elektroniktidningen, vilket betyder att den kan göra uppenbar nytta i kameran för att hjälpa användaren komponera fotografier. Det kan vara en tillfällighet, men på Apples webbplats i ett avsnitt som handlar om neuronnätet visas skärmbilder på emojianimeringen, ansikts-id – och en kamera som tycks vara i färd med att komponera belysningen i en bild. Detta antyder att kameran faktiskt utnyttjar eller kommer att utnyttja neuronkärnan. 

Rösttolkning är en annan given kandidat.

För geststyrning – om sådan funktionalitet kommer – vill användaren ha hög responsivitet, så också det är en bra framtida kandidat för neuronnätet.

Det kan finnas medicinska tillämpningar. Apple har ett samarbete med forskare på MIT om att upptäcka hjärtproblem från pulsdata, levererad av en Apple Watch. Men det är inte uppenbart för Elektroniktidningen att just detta är en realtidstillämpning vilket är var en lokal neuronnätskärna kommer mest till sin rätt.

Apple kallar sin neuronnätskärna för en ”neural engine”. Också Intels nysläppta videochip Myriad X innehåller en ”neural compute engine”. Kärt barn har många namn: ”intelligence processing unit”, ”tensor processing unit” och ”dataflow processing unit” sitter i andra chips eller kärnor som finns eller är under utveckling från bland annat Google, Huawei, Wave, Graphcore, Cadence och Ceva.

Det Apple berättat om ”det neurala systemet” som det kallas på svenska Apples webbplats, är det levererar 600 miljarder operationer per sekund. Intel Myriad levererar ungefär lika mycket – 1000 miljarder. 

Nästa telefon med neuronkärna kan bli Huawei Mate 10. Den ska släppas i höst.