Belgiska forskningsinstituitet IMEC lanserar nya grepp för att kyla AI-processorer som anvönda HBM-minne. Topptemperaturen kunde sänkas från 140,7 °C till 70,8 °C under realistiska AI-träningsarbetslaster.
Imec har använt en metodik kallad cross-technology co-optimization (XTCO) och kallar helheten för ”en lovande arkitektur för nästa generation AI-träning”:
- Optimerar layouten av microbumpar för att sprida värmen.
- Ändrar hur DRAM-lagren binds ihop för bättre värmeledning.
- Använder tunnare kiselskikt.
- Kyler både uppifrån och nerifrån.
- Och halverar klockfrekvensen – men fyrfaldigar bandbredden till HBM-minnet.
Tekniken är applicerbar på arkitekturen 3D HBM-on-GPU
– Att integrera HBM direkt ovanpå grafikprocessorer är ett attraktivt sätt att bygga nästa generations beräkningssystem för dataintensiva AI-arbetslaster, säger Imec i ett pressmeddelande.
Tekniken presenteras idag på konferensen IEDM, IEEE International Electron Devices Meeting.
Imec har inte mindre än 21 accepterade presentationer till konferensen. Andra resultat handlar om bioelektronik, kvantberäkningar och bildbehandling. De termiska lösningarna för HBM på GPU är den presentation som Imec själv valt att lyfta fram bland sina bidrag.
Här är en länk till allt material så du kan gräva dig ner i de tekniska detaljerna.