Kunstmatige Intelligentie (AI) is een snel evoluerend domein dat krachtige en gespecialiseerde hardware vereist om de complexe en data-intensieve algoritmes uit te voeren. AI-chips kunnen deze taken sneller en efficiënter uitvoeren dan traditionele processors. Ze maken tegelijkertijd computing, neurale netwerkarchitecturen en geoptimaliseerde geheugenstructuren mogelijk die de prestaties van AI-toepassingen verbeteren.
Veel techgiganten investeren zwaar in de ontwikkeling en inzet van hun eigen AI-chips, voor eigen gebruik of voor de markt. NVIDIA en AMD, de toonaangevende GPU-makers, passen hun producten aan voor AI-toepassingen. Google en Amazon hebben hun eigen aangepaste chips in hun datacenters die hun AI-diensten aandrijven. Apple heeft AI-mogelijkheden geïntegreerd in zijn eigen processors om zijn apparaten te verbeteren. En OpenAI, de huidige marktleider, onderzoekt de mogelijkheid om zijn eigen hardware te maken. De AI-chipmarkt zal naar verwachting exponentieel groeien, tot $227 miljard in 2032, en deze bedrijven concurreren hevig om dit opkomende gebied te domineren.
- De vraag naar AI-mogelijkheden neemt toe, waardoor techgiganten gespecialiseerde AI-chips ontwikkelen die geoptimaliseerd zijn voor machinaal leren.
- een intensieve race om aan de vraag te voldoen en de kosten te verlagen zal de toekomst bepalen van de snelgroeiende AI-chipmarkt, die naar verwachting $227 miljard zal bedragen in 2032.
- OpenAI onderzoekt naar verluidt de mogelijkheid om zijn eigen AI-chips te ontwikkelen en zich aan te sluiten bij andere techgiganten op de chipmarkt.
Het verschil tussen AI-chips en traditionele CPU’s
De behoefte aan specifieke hardware om AI-toepassingen uit te voeren komt voort uit de unieke vereisten van deze taken. Een traditionele Central Processing Unit (CPU) is ontworpen voor een breed scala aan taken en voert instructies na elkaar uit. AI-werklasten, zoals het trainen van complexe modellen of het verwerken van grote hoeveelheden gegevens, vereisen echter parallelle verwerkingsmogelijkheden die veel taken tegelijk aankunnen. AI-geoptimaliseerde chips, zoals Graphics Processing Units (GPU’s), Tensor Processing Units (TPU’s) en andere toepassingsspecifieke geïntegreerde circuits (ASIC’s), bieden deze mogelijkheid. Ze worden gekenmerkt door eigenschappen als meer kernen, meer threads, meer vectorunits, meer tensoreenheden, meer geheugenbandbreedte, meer geheugencapaciteit, meer geheugenhiërarchie en meer gespecialiseerde instructies. Dankzij deze eigenschappen kunnen AI-geoptimaliseerde chips complexe en repetitieve bewerkingen op gegevens sneller en efficiënter uitvoeren dan CPU’s.
De strijd om de dominantie van AI-hardware
Nu de wereldwijde AI-chipmarkt naar verwachting zal groeien van $17 miljard in 2022 tot $227 miljard in 2032, wordt de strijd tussen techgiganten om dit gebied te domineren steeds heviger. NVIDIA, de huidige marktleider, heeft een sterke positie op de GPU-markt voor datacenters met een marktaandeel van meer dan 95%. Haar krachtige GPU’s en strategische partnerschappen met Amazon Web Services (AWS) en Azure hebben geholpen om haar dominantie te behouden. AMD daagt de suprematie van NVIDIA echter uit met zijn nieuwe AI-acceleratorchips, de Instinct MI300A en PyTorch-partnerschap. AMD’s HIP, een CUDA-conversietool, en zijn aankomende processors vormen een aanzienlijke bedreiging voor NVIDIA’s marktpositie.
Eigen AI-chips van Google en Amazon
Google en Amazon verkopen weliswaar geen chips, maar hebben wel hun eigen AI-chips ontwikkeld voor intern gebruik. Google heeft een AI-model ontwikkeld dat in enkele uren complexe chips kan ontwerpen, een taak waar menselijke ingenieurs maanden over doen. De AI-chip, TPU (Tensor Processing Unit) genaamd, is ontworpen voor machine-learning taken en kan triljoenen bewerkingen per seconde aan terwijl het weinig stroom verbruikt. Tot nu toe werden deze chips alleen gebruikt in datacenters van Google. Onlangs heeft Google echter zijn derde generatie AI-chip, de Tensor G3, geïntroduceerd in de nieuwste Pixel 8 en Pixel 8 Pro telefoons.
Amazon Web Services (AWS) heeft de algemene beschikbaarheid aangekondigd van zijn aangepaste AI-accelerator, Trainium. Trainium is ontworpen voor het trainen van grote machine-learning modellen en biedt tot 50% kostenbesparing ten opzichte van vergelijkbare Amazon EC2 instances. De Trainium-accelerators zijn geoptimaliseerd voor het trainen van natuurlijke taalverwerking, computervisie en aanbevelingsmodellen die in verschillende toepassingen worden gebruikt. Amazon en AI-onderzoeksbureau Anthropic zijn een partnerschap aangegaan ter waarde van 4 miljard dollar om generatieve AI te bevorderen met AWS-infrastructuur en aangepaste chips.
Microsofts strategische alliantie met AMD
Microsoft heeft naar verluidt samengewerkt met AMD om de uitbreiding van de chipmaker op het gebied van AI-processors te ondersteunen. De samenwerking is bedoeld om de dominantie van NVIDIA uit te dagen. AMD helpt Microsoft bij de ontwikkeling van zijn eigen AI-chips, met de codenaam Athena. Er werken honderden werknemers aan het project en er is een investering van 2 miljard dollar gerapporteerd.
De toekomst van AI-chips
De toekomst van AI-hardware ziet er veelbelovend uit, met zowel techgiganten als startups die zwaar investeren in de ontwikkeling van AI-chips. De weg voorwaarts blijft echter complex en uitdagend. OpenAI, momenteel toonaangevend op het gebied van AI, onderzoekt de ontwikkeling van zijn eigen AI-chips. Het bedrijf overweegt een AI-chipfabrikant over te nemen of zelf chips te ontwerpen, wat de markt zou kunnen verstoren en het concurrentielandschap een nieuwe vorm zou kunnen geven.
De ontwikkeling en inzet van AI-chips is niet zonder uitdagingen. De AI-chipsector is uitdagend en riskant, en de impact van Google, Amazon, AMD, NVIDIA en potentiële nieuwkomers zoals OpenAI zal worden bepaald door hun vermogen om doorbraken te forceren in verschillende sectoren, hun strategische allianties en partnerschappen, en hun vermogen om te navigeren door de dynamiek van vraag en aanbod op de wereldwijde chipmarkt.