Skriv ut
Japanska Fujitsu drar ner tiden det tar att utveckla så kallade maskininlärningsalgoritmer från veckor till timmar. Knepet är att låta en algoritm välja algoritm.
Hur stort blir elbehovet i lägenheterna i Tokyo i morgon bitti? Funderar den här kunden just nu på att hoppa av din online-tjänst? Håller din maskin på att gå sönder?

Frågor av det här slaget kan datorprogram idag ge svar på genom att söka efter mönster i så kallad Big data, stora datamängder insamlade från sensorer, mätare och loggar.

Om du kan förutspå när en kund är på väg att lämna din tjänst, kan du direkt generera ett nytt lockbete för att få kunden att stanna kvar. Om du kan förutspå den dagliga energiförbrukningen hos dina enskilda kunder, kan du noggrannare planera för hur energin ska alstras, överföras och lagras.

Sådana prognosverktyg går under namn som logistisk regression, stödvektormaskiner och beslutsträd.

Utmaningen är att hitta ett bra prognosverktyg för just dina data. Problemet är att det tar massor av tid att utveckla varje prognosverktyg. Det är inte ens praktiskt möjligt att testa alla tänkbara kombinationer av verktyg och konfigureringar.

Ofta involverar man magkänslan hos en mänsklig expert för att försöka känna sig fram till vilket verktyg som kan vara mest lovande att utforska.

Nu har Fujitsu har tagit fram en effektiv och helt automatisk metod.

Företaget har byggt upp en gigantisk databas som betygsätter olika kombinationer av prognosverktyg, hårdvara, konfigureringar, dataset i olika storlekar och dimensioner, med mera, vad gäller hur exakt prognosverktyget skulle kunna bli och hur lång tid det skulle ta att ta fram det. Man använder denna databas för att välja vilket verktyg man ska pröva att utveckla härnäst.

Processen upprepas tills man hittat ett tillräckligt bra prognosverktyg, hela tiden med databasen som guide plus vissa  korrigeringar i realtid.

Fujitsu har testat sin databas på ett dataset bestående av 50 miljoner poster. Man använde sig av åtta tolvkärniga servrar som körde plattformen Apache Spark. Med den hårdvaran skulle det enligt Fujitsu med etablerade metoder tagit ungefär en vecka  att hitta ett prognosverktyg som ställde prognoser med 96 procents noggrannhet. Med den nya metoden var Fujitsu Laboratories klar efter drygt två timmar.

Fujitsus databas är alltså ett verktyg som ger prognoser om effektiviteten hos prognosverktyg. Och som om det inte var nog med tårta på tårta, kommer denna databas att bli effektivare ju mer den används – för också den trimmas med hjälp av maskininlärning av de nya dataset den utsätts för.

Ont i huvudet? Det enda du egentligen behöver veta är om du sitter på stora volymer data och misstänker att där finns mönster som du skulle kunna utnyttja för göra prognoser, så kan du mata in dina data i Fujitsus maskin, så spottar den snabbt och billigt ur sig ett prognosverktyg.

Betoningen ligger på snabbt och billigt. Du kan med en förhållandevis liten hårdvaruinsats få fram resultat på timmar istället för veckor. Tröskeln för att experimentera har därmed sänkts. Behovet av att anlita en mänsklig expert för att guida analysen har dessutom blivit mindre eftersom processen är automatisk.

Elektronikindustrin är en potentiellt allt intressantare kund för Fujitsus molnprodukter på grund av de växande datavolymer som genereras från sensorer och mätare. Det kan finns pengar att tjäna och resurser att spara på att analysera dessa datamängder. Fujitsu pekar bland annat på de stora mängder data som genereras från sensorer i smarttelefoner och från webbserverloggar.

Fujitsus resultat presenteras nästa vecka på konferensen ISIMBL (Information-Based Induction Sciences and Machine Learning) på universitetet i Ehime i Japan.

Företaget hoppas därefter att ha utvecklat en färdig tjänst innan årets slut.