Ingenieurs van de Universiteit van Minnesota hebben een hardware-apparaat ontwikkeld dat het energieverbruik voor kunstmatige intelligentietoepassingen met minstens een factor 1.000 kan verminderen. De technologie, genaamd computational random-access memory (CRAM), verwerkt gegevens volledig binnen het geheugen, waardoor energie-intensieve gegevensoverdracht tussen logica en geheugenmodules overbodig wordt.
Waarom dit belangrijk is:
Er worden dagelijks nieuwe AI-toepassingen geïntroduceerd. Ondanks de vele voordelen die AI biedt bij het optimaliseren van processen, komt het ook met een groot nadeel: de hoge energie-input die nodig is om de hardware te laten draaien. De inspanningen van de Universiteit van Minnesota kunnen de weg banen naar een milieuvriendelijkere AI.
Het Internationaal Energieagentschap (IEA) voorspelt een verdubbeling van het wereldwijde AI-energieverbruik van 460 terawattuur (TWh) in 2022 tot 1000 TWh in 2026. Deze stijging onderstreept de urgentie van meer energie-efficiënte oplossingen. CRAM-technologie kan deze dreigende energiecrisis mogelijk verzachten door energiebesparingen tot 2.500 keer te bieden in vergelijking met traditionele methoden.
De doorbraak van de Universiteit van Minnesota pakt een kritieke uitdaging in AI computing aan: de hoge energiekosten die gepaard gaan met gegevensoverdracht tussen logica en geheugen. Traditionele computerarchitecturen, zoals het von Neumann model, scheiden deze eenheden, wat leidt tot inefficiëntie. CRAM integreert berekeningen direct in het geheugen, waardoor het energieverbruik drastisch daalt. De chip, gebaseerd op magnetische tunnelverbindingen, biedt flexibele rekenmogelijkheden en heeft veelbelovende nauwkeurigheid laten zien in experimentele demonstraties.
Samenwerking
Deze innovatie is het resultaat van meer dan 20 jaar onderzoek onder leiding van een interdisciplinair team aan de Universiteit van Minnesota. Het team bestaat uit experts op het gebied van natuurkunde, materiaalwetenschappen en -techniek, computerwetenschappen en elektrotechniek. Hun gezamenlijke inspanningen hebben geleid tot de ontwikkeling van CRAM, een technologie die voortbouwt op gepatenteerd onderzoek naar Magnetic Tunnel Junctions (MTJ’s).
MTJ’s, een soort spintronische apparaten, maken gebruik van de spin van elektronen om gegevens op te slaan. Deze benadering is energiezuiniger dan traditionele chips op basis van transistors, die afhankelijk zijn van elektrische lading. De CRAM-architectuur gebruikt deze MTJ’s om berekeningen uit te voeren binnen geheugencellen, waardoor energie-intensieve gegevensoverdracht overbodig wordt.
Van concept naar realiteit
Jian-Ping Wang, Distinguished McKnight Professor en een van de hoofdauteurs van het artikel, herinnert zich dat het aanvankelijke concept om geheugencellen te gebruiken voor computers op scepsis stuitte. Twintig jaar geleden werd ons idee voor gek verklaard”, aldus Wang. De volharding van Wang en zijn team heeft echter vruchten afgeworpen en aangetoond dat de CRAM-technologie niet alleen haalbaar is, maar ook klaar is voor integratie in bestaande systemen.
Het onderzoek van het team is gepubliceerd in npj Unconventional Computing, met meerdere patenten die de onderliggende technologie beschermen. Hun experimentele resultaten tonen aan dat CRAM-gebaseerde inferentieversnellers voor machinaal leren energieverbeteringen in de orde van 1000 keer kunnen bereiken. In sommige gevallen bereikten de energiebesparingen een factor 2.500 en 1.700 vergeleken met traditionele methoden.
Een veelzijdige oplossing
De flexibiliteit van CRAM is een van zijn sterkste punten. Berekeningen kunnen worden uitgevoerd op elke locatie in de geheugenarray”, zegt Ulya Karpuzcu, universitair hoofddocent en co-auteur van het onderzoek. Dit aanpassingsvermogen maakt CRAM geschikt voor een uiteenlopende reeks AI-algoritmen, wat de potentiële toepassingen vergroot.
De veelzijdigheid van de technologie strekt zich uit tot het potentiële gebruik in verschillende AI-gedreven taken, zoals neurale netwerken, beeldverwerking en edge computing. Door het knelpunt van gegevensoverdracht tussen logica en geheugen aan te pakken, zou CRAM de efficiëntie en prestaties van deze toepassingen aanzienlijk kunnen verbeteren.
Samenwerking met de industrie en toekomstperspectieven
Het team van de Universiteit van Minnesota werkt nu samen met leiders uit de halfgeleiderindustrie om de demonstraties op te schalen en de benodigde hardware te produceren. Dit partnerschap heeft als doel om de CRAM-technologie op de markt te brengen en zo een levensvatbare oplossing te bieden voor energie-efficiënte AI-computing.
Steun voor dit onderzoek kwam van verschillende prestigieuze organisaties, waaronder het Amerikaanse Defense Advanced Research Projects Agency (DARPA), het National Institute of Standards and Technology (NIST), de National Science Foundation (NSF) en Cisco Inc. Deze samenwerkingen benadrukken het brede belang en de potentiële impact van CRAM-technologie op toekomstige computerparadigma’s.
Naarmate AI zich blijft ontwikkelen en de toepassingen ervan zich uitbreiden, wordt de vraag naar efficiëntere computeroplossingen steeds belangrijker. De ontwikkeling van CRAM door de Universiteit van Minnesota is een belangrijke stap om aan deze vraag te voldoen. Door het energieverbruik drastisch te verlagen, pakt CRAM niet alleen de directe energieproblemen aan, maar effent het ook het pad voor duurzamere en geavanceerdere AI-technologieën.