Innovatieve Pilot: EPRI, NVIDIA, Prologis en InfraPartners Testen Micro-Datacenters voor AI-Workloads

Written by Olivia Nolan

maart 20, 2026

De exponentiële groei van kunstmatige intelligentie (AI) stelt de wereldwijde digitale infrastructuur voor een enorme uitdaging, met name op het gebied van energieverbruik en datalatentie. Als antwoord hierop is een baanbrekend project gelanceerd: EPRI, NVIDIA, Prologis, and InfraPartners pilot micro data centres for AI workloads. Deze strategische samenwerking bundelt de krachten van vier marktleiders om de haalbaarheid te onderzoeken van het implementeren van krachtige, vloeistofgekoelde micro-datacenters binnen bestaande industriële en commerciële ruimtes. Het doel is om een gedecentraliseerd model te creëren dat AI-computing dichter bij de eindgebruiker brengt, de druk op het centrale elektriciteitsnet verlicht en een nieuw paradigma voor kostenefficiënte en schaalbare AI-infrastructuur introduceert. Deze pilot kan de blauwdruk vormen voor hoe toekomstige AI-systemen worden ingezet, met een sterke focus op duurzaamheid en operationele efficiëntie.

Luister naar dit artikel:

De samenwerking is zorgvuldig samengesteld om expertise uit verschillende domeinen te combineren. Het Electric Power Research Institute (EPRI) leidt het onderzoek en richt zich op de integratie van deze datacenters met het elektriciteitsnet, waarbij de impact op de stabiliteit en de mogelijkheden voor vraagrespons worden geanalyseerd. NVIDIA, als wereldleider in AI-computing, levert de geavanceerde hardware, inclusief high-density GPU's die de rekenkracht voor complexe AI-modellen verzorgen. Prologis, een gigant in logistiek vastgoed, stelt zijn strategisch gelegen distributiecentra ter beschikking als testlocaties, waarmee de haalbaarheid van implementatie in niet-traditionele IT-omgevingen wordt aangetoond. InfraPartners completeert het kwartet door hun expertise in het ontwerpen, bouwen en beheren van de modulaire, vloeistofgekoelde datacenterinfrastructuur, die essentieel is voor het efficiënt koelen van de krachtige NVIDIA-chips in een compacte ruimte.
Traditionele, gecentraliseerde hyperscale datacenters, hoewel krachtig, kampen met inherente nadelen voor de volgende generatie AI-toepassingen. Latentie, de vertraging in dataoverdracht, is een significant obstakel voor real-time applicaties zoals autonome voertuigen of slimme fabrieken. Door micro-datacenters aan de 'edge' te plaatsen – dicht bij waar data wordt gegenereerd en verwerkt – wordt deze latentie drastisch verlaagd. Dit gedecentraliseerde model biedt bovendien superieure schaalbaarheid; organisaties kunnen capaciteit toevoegen waar en wanneer dat nodig is, zonder de enorme investering van een nieuw hyperscale-complex. Vanuit een energieperspectief bieden deze kleinere units de mogelijkheid om flexibeler met het lokale stroomnet om te gaan. Ze kunnen stroom verbruiken tijdens daluren en mogelijk zelfs energie terugleveren of stabilisatiediensten aanbieden, wat bijdraagt aan een veerkrachtiger en efficiënter energienetwerk.

advertenties

advertenties

advertenties

advertenties

De enorme warmte die wordt gegenereerd door de nieuwste generatie AI-accelerators van NVIDIA maakt traditionele luchtkoeling inefficiënt en onhoudbaar. Vloeistofkoeling, waarbij een koelmiddel direct langs de hete componenten stroomt, is significant effectiever in het afvoeren van warmte. Dit resulteert in een veel hogere energie-efficiëntie, uitgedrukt in een lagere Power Usage Effectiveness (PUE)-waarde. Een lagere PUE betekent dat een kleiner deel van de totale energie wordt besteed aan koeling, wat direct leidt tot lagere operationele kosten (OpEx). Bovendien maakt vloeistofkoeling een veel hogere rekendichtheid mogelijk: meer rekenkracht per vierkante meter. Voor deze pilot is deze technologie cruciaal, omdat het de inzet van datacenter-grade AI-hardware mogelijk maakt in omgevingen, zoals een magazijn, die niet zijn ontworpen voor grootschalige IT-koeling. Het succes van deze aanpak is fundamenteel voor de levensvatbaarheid van het gedecentraliseerde model.

Olivia Nolan is redacteur bij MSP2Day, waar zij zich richt op het vertalen van complexe IT- en technologische ontwikkelingen naar toegankelijke en inspirerende artikelen. Met haar ervaring als content manager en social media expert weet zij inhoud niet alleen informatief, maar ook aantrekkelijk en relevant te maken voor een breed publiek.