We hebben jarenlang overcapaciteit en onderbenutting in datacenters gezien. Tot vrij kort geleden was het niet ongewoon dat ik een site bezocht met een ontwerpbelasting van 10 mega volt ampère (MVA) met slechts een 2 MVA IT-belasting. Nog vaker kwam het voor dat het servergebruik onder de 10 procent lag en niet alleen op bepaalde machines of racks, maar op gehele IT-systemen.
Binnen de energie-efficiëntie- en optimalisatiegemeenschappen hebben we jarenlang geprobeerd om klanten vanaf de eerste dag op het juiste volume te krijgen door de implementatie van modulaire groeistrategieën en het waarborgen van een kritische fysieke infrastructuur, zoals voeding en koeling, die nauw overeenkomt met de uiteindelijke vraag van de rekenkrachtbelasting. Zelfs als we dit deden, dan nog werden de vereisten aan IT-apparatuur vaak aanzienlijk overschat, waardoor er een kloof bleef tussen de ontwerpverwachting en de realiteit.
Met de evolutie van het traditioneel zakelijke datacenter is het hebben van één server of processor voor slechts één applicatie zeker niet verdwenen. De overstap naar meer software-gestuurde platformen heeft ook geleid tot een beter gebruik van virtuele machines en netwerk-achtige systemen. Toen ik bij IBM begon, zouden we dit systeemmainframes hebben genoemd.
Een van de belangrijkste redenen voor ondergebruik is het feit dat systemen zijn ontworpen en gebouwd om in de grootste behoefte van een klant te voorzien, op hun drukste moment, met wat extra capaciteit voor het geval dat. Deze klanten hebben ook een redundant systeem, alleen voor het geval dat. De online detailhandel kijkt bijvoorbeeld naar grote verkoopmomenten zoals Black Friday, Cyber Monday of Boxing Day. Deze retailers hebben gepland op hun piekbelasting, hoewel ze daar in de meeste gevallen niet eens bij in de buurt komen.
Dit over- vs. ondercapaciteitscenario kan worden vergeleken met een auto. De meeste zijn ontworpen om 120 kilometer per uur (km/u) te rijden, maar rijden doorgaans niet harder dan 80 km/u en meestal maar 0-40 km/u. Daarnaast zijn locaties met een goede redundantie net als iemand die voor een reis kan kiezen uit twee auto's.
De zeer grote aanbieders van datacenters, de hyperscalers, beheren in feite wagenparken van vrachtwagens met supercar-prestatiemogelijkheden. Ze zijn 100 procent software-gestuurd. Ze hebben een bijna identiek hardwareplatform, één voor verwerking en één voor opslag, in elk van hun eigen datacenter. Dat betekent tienduizenden op het net aangesloten processoren en opslagapparaten die effectief als één geheel functioneren. Het verlies van een enkele site veroorzaakt slechts een kleine prestatiedaling en geen verlies van dienstverlening.
Wist u dat wanneer u een Google-zoekopdracht uitvoert, uw apparaat dat verzoek verzendt naar drie verschillende datacenters in verschillende regio's? Het datacenter dat de race wint, presenteert u het resultaat. Als een van die sites offline is, zijn er nog twee over! De netwerken die we gebruiken om al deze gegevens te verzenden zijn grotendeels hetzelfde, maar met nog meer feitelijke capaciteit die vanaf dag één is ingebouwd.
Het is heel duur om kabels in de grond en op de zeebodem te leggen. Bij het plannen van nieuwe routes plant de netwerkleverancier doorgaans 10 jaar of meer vooruit. Naarmate de vraag na verloop van tijd toeneemt, hoeven deze leveranciers alleen maar een ongebruikte vezelverbinding actief te maken om enorme hoeveelheden directe capaciteit toe te voegen.
In essentie zijn softwareplatforms, de datacenters die ze ondersteunen en de netwerken die alles verbinden, ontworpen om zeer hoge capaciteit te bieden met nog hogere niveaus van redundantie.
Dit betekent dat wanneer er een plotselinge en dringende vraag is, zoals de Black Friday-uitverkoop of een nieuwe YouTube-video van Ed Sheeran, het hele ecosysteem gewoon zegt: “Help even een handje”.
De ongekende vraag die we nu zien doordat een groot deel van de beroepsbevolking en studenten thuis is gaan werken is ongeëvenaard, maar misschien niet in termen van totale piekcapaciteit. Terwijl de luidsprekersystemen voor Spinal Tap helemaal tot 11 gingen, zitten de wereldwijde datacenternetwerken op slechts 9. Dit capaciteitsniveau is niet ongebruikelijk, echter wel als het een langere tijd aanhoudt.
In een recent persbericht, verklaarde de Technisch Directeur (CTO) van BT dat het Britse netwerk, hoewel het uiterst druk was, nog lang niet aan zijn topcapaciteit zat. Hij zei dat de topdrukte doorgaans gedurende een aantal uren op zondagavond ligt. Nu is die piek constant en hoger dan ooit tevoren.
Natuurlijk zijn er enkele knelpunten, is er de noodzaak om bepaalde diensten aan te passen, en zullen sommige mensen aan de rand het netwerk slechtere prestaties ervaren. Gelukkig is dit niet indicatief voor het ecosysteem als geheel.
De elasticiteit van het gehele ecosysteem is meer dan ooit in staat aan de huidige vraag te voldoen. Ik weet uit eigen ervaring dat iedereen nadrukkelijk naar de knelpunten kijkt en eraan werkt om ze snel uit te breiden. De meeste van deze dringend vereiste uitbreiding gaat over het online plaatsen van apparatuur of het herbestemmen van redundante hardware.
Waar nieuwe capaciteit nodig is, wordt het binnen enkele dagen geleverd. Vanwege de eerder genoemde evolutie van bedrijfsfaciliteiten is er een grote hoeveelheid ruimte in datacenters beschikbaar.
Het is voor ons bij Vertiv een drukke tijd, maar wees gerust. We zien dat onze industrie weliswaar wordt getest, maar een A+ in prestaties scoort.