En Armbaserad moln-cpu och en accelerator för neuronnätsinferenser – det har Microsoft utvecklat för sitt moln Azure.
Chipen presenterades på Microsofts egen konferens Ignite 15–16 november och heter Maia 100 AI Accelerator och Azure Cobalt 100 CPU. Google och Amazon har byggt egna processorer till sina moln och nu är det alltså Microsofts tur.
Maia 100 innehåller 105 miljarder transistorer och tillverkas på TSMC i 5 nm. Den ska rullas ut till Microsofts datacenter i början av nästa år. Open AI – företaget bakom Chat GPT – har varit partner i utvecklingen av Maia, som bland annat kommer att driva Microsofts konversationsmotor Copilot.
Cobalt är en 128-kärnig Arm-processor. Molnprocessorer brukade gå på X86-processorer från duopolet Intel och AMD, men brittiska Arm har med åren lanserat allt bättre stöd för den som vill utveckla egna serverprocessorer och det dyker upp allt fler konkurrenskraftiga sådana – läs mer om detta här (länk).
Den som designar sitt eget molnchip slår två flugor i en smäll. Dels får den en processor som är mer optimerad för de egna tillämpningarna och dels kan den peka på sitt chip som ett alternativ när den prisförhandlar med Intel och AMD.
Microsoft kommer att behålla Nvidia som AI-processorleverantör och använda dess H200 för inferenser i större artificiciella neuronnät.
Maia 100 kommer både att användas för att konstruera neuronnät och för att dra inferenser i dem.
Läs mer hos The Next Platform eller hos Microsoft.