Qualcomm heeft onlangs de lancering aangekondigd van nieuwe kunstmatige intelligentie (AI) acceleratorchips, waarmee het bedrijf de concurrentie aangaat met marktleider Nvidia, die tot nu toe de AI-semiconductorsector domineert. Na dit nieuws steeg de aandelenkoers van Qualcomm met 11%. Deze stap markeert een belangrijke verschuiving voor Qualcomm, dat zich tot nu toe vooral richtte op halfgeleiders voor draadloze connectiviteit en mobiele apparaten, en minder op grootschalige datacenters.
De nieuwe AI-chips, genaamd AI200 (beschikbaar in 2026) en AI250 (gepland voor 2027), kunnen in een volledig vloeistofgekoeld serverrack worden geïntegreerd. Hiermee volgt Qualcomm het voorbeeld van Nvidia en AMD, die hun grafische verwerkingseenheden (GPUs) in vergelijkbare racksystemen aanbieden, waarbij tot 72 chips als een krachtige computer functioneren. Deze enorme rekenkracht is essentieel voor AI-labs die geavanceerde modellen ontwikkelen.
Qualcomm baseert zijn datacenterchips op de Hexagon neural processing units (NPUs) die al in hun smartphonechips worden gebruikt. Volgens Durga Malladi, algemeen directeur voor datacenter en edge bij Qualcomm, was het eerst belangrijk om ervaring op te doen in andere domeinen voordat het bedrijf de stap naar datacenters kon maken.
De entree van Qualcomm in de markt voor AI-datacenters komt in een periode van enorme groei: naar schatting wordt er tot 2030 bijna $6,7 biljoen gevesteerd in datacenters, waarbij het merendeel wordt uitgegeven aan systemen met AI-chips. Nvidia heeft momenteel een marktaandeel van meer dan 90% en is door de verkoop van GPUs uitgegroeid tot een bedrijf met een beurswaarde van meer dan $4,5 biljoen.
Naast Qualcomm zoeken ook andere grote spelers zoals Google, Amazon en Microsoft naar eigen AI-accelerators, terwijl startups zoals OpenAI zich oriteren op alternatieven zoals AMD. Qualcomm richt zich met zijn chips vooral op inference (het uitvoeren van AI-modellen), in tegenstelling tot training, waarbij modellen worden ontwikkeld.
Qualcomm benadrukt dat hun rack-systemen goedkoper en energiezuiniger zijn in gebruik, met een stroomverbruik van 160 kilowatt per rack, vergelijkbaar met Nvidias GPU-racks. Daarnaast biedt Qualcomm de mogelijkheid om chips en onderdelen los te verkopen, zodat klanten zoals hyperscalers hun eigen racks kunnen ontwerpen en samenstellen. Zelfs concurrenten als Nvidia of AMD zouden klant kunnen worden voor bepaalde Qualcomm-onderdelen, zoals CPUs.
Hoewel Qualcomm nog geen prijzen of exacte specificaties heeft gegeven, claimt het bedrijf voordelen op het gebied van energieverbruik, eigendomskosten en geheugentechnologie. Zo ondersteunen de AI-kaarten van Qualcomm 768 gigabyte geheugen, meer dan wat Nvidia en AMD momenteel aanbieden. Qualcomm werkt ook samen met Saudi-Arabiom AI-inferencingchips te leveren aan datacenters in de regio, met een potentieel verbruik van 200 megawatt. Hiermee zet Qualcomm een ambitieuze stap in de snelgroeiende AI-chipmarkt.
Technisch kan Qualcomm een behoorlijke inhaalslag maken. De nieuwe concurrerende produkten maakt dat mogelijk.
Bron: CNBC
Elke ochtend beleggingstips ontvangen? Meld u gratis aan voor Cashcow Daily!
