Od lat obserwujemy zjawisko przewymiarowania i niedostatecznego wykorzystania mocy centrum danych. Do niedawna często zdarzało mi się odwiedzać centrum danych o obciążeniu projektowym 10 MVA, które obsługiwało sprzęt IT o mocy zaledwie 2 MVA. Jeszcze bardziej powszechne było wykorzystywanie serwerów na poziomie poniżej 10% ich wydajności, i to nie tylko pojedynczych maszyn lub szaf, ale całych systemów IT.
Od wielu lat jesteśmy członkiem społeczności zajmujących się efektywnością energetyczną oraz optymalizacją i zalecaliśmy naszym klientom odpowiednie konfigurowanie obiektów poprzez wdrażanie strategii rozwoju modułowego oraz precyzyjne dopasowywanie krytycznej infrastruktury fizycznej, takiej jak zasilanie i chłodzenie, do zapotrzebowania ze strony sprzętu obliczeniowego. Mimo tego często dochodziło do sytuacji, w których przewymiarowano sprzęt IT, co prowadziło do rozbieżności pomiędzy oczekiwaniami projektowymi a rzeczywistością.
Za sprawą ewolucji tradycyjnego firmowego centrum danych, konfiguracja, w której jeden serwer obsługuje jedną aplikację, należy już do przeszłości. Wdrożenie platform definiowanych programowo oznacza lepsze wykorzystanie maszyn wirtualnych i systemów typu grid. W IBM, gdzie zaczynałem swoją karierę, nazywalibyśmy takie systemy mainframe.
Jednym z głównych powodów, dla których zwrócilibyśmy uwagę na brak odpowiedniego ich wykorzystania, byłby fakt, że zostały one zaprojektowane i zbudowane, aby obsługiwać najwyższe zapotrzebowanie klienta, w najbardziej ruchliwym dniu i zapewniały na wszelki wypadek niewielką dodatkową moc. Tego typu klienci wdrożyliby również na wszelki wypadek system nadmiarowy. Na przykład branża handlu detalicznego dostosowałaby swoje systemy do dni o najwyższej sprzedaży, takie jak Black Friday, Cyber Monday lub drugi dzień świąt Bożego Narodzenia. Sprzedawcy detaliczni byli zmuszeni planować systemy pod kątem obciążenia szczytowego, choć większość czasu nie pracowały one w warunkach zbliżonych do takiego stanu.
Taki scenariusz wdrażania nadmiernej mocy i niepełnego jej wykorzystania najlepiej obrazuje samochód. Większość pojazdów jest skonstruowanych do jazdy z prędkością 120 mil na godzinę (mph), podczas gdy ta rzadko wynosi więcej niż 80 mph, a większość czasu prędkość pojazdu nie przekracza 0-40 mph. Obiekty charakteryzujące się odpowiednim poziomem nadmiarowości to jak podróż, w której możemy wybierać pomiędzy dwoma samochodami.
Bardzo duże centra danych obsługują całe floty ciężarówek z wydajnością supersamochodu. Są one 100% definiowane programowo. W każdym obiekcie pracuje identyczna platforma sprzętowa, jedna do przetwarzania danych i druga do ich magazynowania. Oznacza to dziesiątki tysięcy procesorów i urządzeń pamięci masowej połączonych w sieci, działającej jak jeden system. Awaria jednego obiektu skutkuje jedynie niewielkim spadkiem wydajności, a nie całkowitą przerwą działalności.
Czy wiesz, że podczas wyszukiwania w Google Twoje urządzenie wysyła żądanie do trzech różnych centrów danych znajdujących się w różnych lokalizacjach geograficznych? Centrum danych, które jest szybsze, dostarcza Ci wynik. Jeśli jeden z tych obiektów jest niedostępny, to i tak pracują jeszcze dwa dodatkowe! Sieci wykorzystywane do transmisji danych są identyczne, ale charakteryzują się nadmiarowością od momentu ich budowy.
Prowadzenie kabli w ziemi i w morzu jest bardzo kosztowne. Przy projektowaniu nowych tras, dostawcy sieci zazwyczaj planują je z wyprzedzeniem na 10 lat lub więcej. Wraz ze wzrostem zapotrzebowania, dostawca uruchamia rezerwowy światłowód i natychmiastowo zwiększa przepustowość łącz.
Zasadniczo platformy programowe, centra danych, które je obsługują, oraz sieci łączności są zaprojektowane tak, aby oferować bardzo wysoki poziom wydajności przy jeszcze wyższym poziomie nadmiarowości.
Oznacza to, że w momencie zaistnienia nagłej i pilnej potrzeby, np. wyprzedaże w Black Friday lub premiera filmu Youtube z Edem Sheeranem, cały ekosystem zwiększa swoją moc.
Obecny wzrost zapotrzebowania spowodowany masową migracją profesjonalistów i studentów z biur do domu, jest bezprecedensowy, ale niekoniecznie w kategoriach całkowitej szczytowej wydajności. I chociaż wszystkie systemy działają na poziomie 11 w dziesięciostopniowej skali, to globalna sieć centrum danych pracuje z wydajnością na poziomie 9 stopni. Taki poziom obciążenia nie jest jednak zwyczajnym zjawiskiem, natomiast jego obsługa przez dłuższy czas, tak.
W ostatnim komunikacie prasowym dyrektor ds. technologii British Telecom stwierdził, że sieć brytyjska, choć jest wyjątkowo obciążona, to nie zbliżyła się do swoich optymalnych możliwości. Powiedział, że szczyt ruchu przypada na niedzielne noce i utrzymuje się przez kilka godzin. Obecnie szczyt utrzymuje się cały czas i jest wyższy niż kiedykolwiek wcześniej.
Oczywiście pojawiają się wąskie gardła, zachodzi konieczność dostosowywania niektórych usług, a część osób na obrzeżach sieci może odczuwać spadek wydajności. Na szczęście nie dotyczy to ekosystemu jako całości.
Elastyczność całego ekosystemu pozwala na pracę z wyższą wydajnością niż ta, którą obecnie żąda się od niego. Z własnego doświadczenia wiem, że wszyscy bardzo uważnie obserwują te wąskie gardła i pracują nad ich szybką eliminacją. Większość tych działań polega na uruchamianiu nadmiarowego sprzętu i zmianie jego wykorzystania.
W miejscach, gdzie pojawia się zapotrzebowanie na wyższą wydajność, jest ona zapewniania w ciągu kilku dni. Dzięki wspomnianej wyżej ewolucji firmowych centrum danych, istnieje spory i natychmiast dostępny potencjał obliczeniowy centrum danych.
Dla nas w Vertiv jest to bardzo pracowity czas, ale możecie być spokojni. Z tego, co widzę, nasza branża jest poddawana testowi, który zdajemy na A+.