The page you're viewing is for Polish (EMEA) region.

Investors

The page you're viewing is for Polish (EMEA) region.

Analizując trendy na rok 2018, Vertiv spodziewa się nadejścia centrów danych czwartej generacji

grudnia 06, 2017

Większa zależność od brzegu sieci, dostawcy usług kolokacji siłą napędową rozwoju

Warszawa, Polska [6 grudnia 2017 r.] — Centrum danych nowej generacji będzie wykraczać poza mury budynku, bezproblemowo integrując główne obiekty z bardziej inteligentnym, kluczowym dla działalności firm brzegiem sieci. Centra danych czwartej generacji już się pojawiają i staną się wzorem dla sieci IT lat 20. XXI wieku. Pojawianie się centrów danych zależnych od brzegu sieci stanowi jeden z pięciu trendów dla branży data center na rok 2018, rozpoznanych przez ogólnoświatowy panel ekspertów firmy Vertiv, uprzednio Emerson Network Power.

„W dobie big data i rosnącej zależności od niezakłóconego dostępu do danych, firmy technologiczne bardziej wnikliwie ewaluują swoje zasoby informatyczne oraz stan infrastruktury, aby oferować stabilne wsparcie swoim klientom” – powierdział Bartosz Biernacki, Country Manager w Vertiv Poland.  „W wyścigu o nowego klienta wygrają te firmy, które będą oferować pewny, szybki, stały i bezpieczny dostęp do powierzonych zasobów”.

We wcześniejszych prognozach firmy Vertiv rozpoznano między innymi trendy związane z chmurą, zintegrowanymi systemami czy bezpieczeństwem infrastruktury. Poniżej zestawiono pięć oczekiwanych trendów, które wpłyną na środowisko centrów danych w 2018 roku:

1. Pojawienie się centrum danych czwartej generacji: Zarówno w przypadku tradycyjnych szaf teleinformatycznych, jak i centrów danych o powierzchni blisko 140 m², organizacje coraz częściej polegają na brzegu sieci. Centrum danych czwartej generacji całościowo i harmonijnie łączy sieć brzegową i szkieletową, sprawiając, że te nowe architektury wykraczają ponad proste sieci rozproszone.

Dzieje się tak dzięki innowacyjnym architekturom zapewniającym moc obliczeniową w czasie zbliżonym do rzeczywistego w skalowalnych, ekonomicznych modułach, które wykorzystują zoptymalizowane rozwiązania w zakresie chłodzenia, zasilacze o wysokiej gęstości mocy, akumulatory litowo-jonowe oraz zaawansowane moduły dystrybucji zasilania. Zaawansowane technologie monitorowania i zarządzania łączą to wszystko, umożliwiając setkom, a nawet tysiącom węzłów rozproszonych sieci informatycznych, działanie dążące do zmniejszenia opóźnień oraz kosztów początkowych, zwiększenia stopy wykorzystania możliwości, usunięcia złożoności oraz pozwolenia organizacjom na zwiększanie przepustowości w oparciu o sieć, gdy tylko tego potrzebują.

2. Dostawcy usług w chmurze zwracają się o pomoc do dostawców usług kolokacji: Wykorzystanie chmury obliczeniowej przez użytkowników postępuje tak szybko, że w wielu przypadkach dostawcy tej usługi nie są w stanie sprostać zapotrzebowaniu na pojemność. W rzeczywistości niektórzy nawet nie próbują. Wolą skupić się na zapewnianiu usług oraz priorytetach innych niż nowe centra danych i zwracają się do dostawców usług kolokacji, aby sprostali oni ich wymaganiom pojemnościowym.

Dzięki przykładaniu wagi do skuteczności i skalowalności, dostawcy usług kolokacji szybko spełniają zapotrzebowania, jednocześnie redukując koszty. Wzrost liczby przedsiębiorstw zajmujących się kolokacją pozwala dostawcom usług w chmurze na wybór partnerów, którzy działają na obszarze odpowiadającym wymaganiom użytkownika końcowego, gdzie mogą oni działać jako obiekty brzegowe. Dostawcy usług kolokacji zapewniają część ich centrum danych dla usług w chmurze bądź całe obiekty typu build-to-suit.

3. Rekonfiguracja średniej klasy centrum danych: Nie jest żadnym sekretem, że największe obszary rozwoju na rynku centrów danych stanowią obiekty typu hyperscale — zwykle należące do dostawców usług w chmurze czy kolokacji. Wraz ze wzrostem zasobów w chmurze i kolokacji, tradycyjni operatorzy centrum danych mają obecnie możliwość ponownej rekonfiguracji swoich obiektów i zasobów, które są krytyczne dla lokalnych działań.

Organizacje z wieloma centrami danych będą w dalszym ciągu konsolidować swoje wewnętrzne zasoby informatyczne, prawdopodobnie przenosząc to, co mogą w chmurę lub wykorzystując usługi kolokacji, w tym samym czasie miniaturyzując i wykorzystując szybko wdrażalne konfiguracje, które można równie szybko skalować. Nowe obiekty będą mniejsze, ale bardziej skuteczne i bezpieczne, będą także odznaczać się dużą dostępnością — zgodnie z kluczowym z punktu widzenia biznesu charakterem danych, które te organizacje zamierzają chronić.

Wszędzie tam na świecie, gdzie wdrożenie usług chmurowych czy kolokacyjnych odbywa się wolniej, architektury chmury hybrydowej są kolejnym oczekiwanym krokiem, łącząc większą ilość posiadanych zasobów IT z chmurą prywatną lub publiczną w celu zmniejszania kosztów i zarządzania ryzykiem.

4. Era wysokiej gęstości (w końcu) nadchodzi: Społeczność branży centrów danych przewidywała wzrost gęstości mocy w szafach rack od dekady, ale miał on w najlepszym wypadku charakter przyrostowy. To ulega zmianie. Podczas gdy gęstości wynoszące poniżej 10 kW na szafę pozostają normą, szafy o mocy 15 kW nie są rzadkością w obiektach typu hyperscale i niektóre osiągają nawet wartość 25 kW.

Dlaczego właśnie teraz? Wprowadzenie i powszechne wdrożenie wysoce zintegrowanych systemów obliczeniowych jest głównym czynnikiem. Dostawcy usług kolokacji oczywiście na pierwszym miejscu stawiają wolną przestrzeń w ich obiektach, a wysoka gęstość mocy szaf rack może oznaczać wyższe przychody. Energooszczędne osiągnięcia w technologiach serwerowych i mikroukładów mogą jedynie przesunąć w czasie nieuniknioną erę wysokiej gęstości mocy. Istnieją jednak powody, aby wierzyć, że krok w kierunku wyższej gęstości może wyglądać bardziej jak powolny marsz niż jak sprint. Znacząco wyższe gęstości mogą zasadniczo zmienić czynnik kształtowania się centrum danych — od infrastruktury zasilania po sposób w jaki organizacje będą ochładzać centra o dużej gęstości. Era wysokiej gęstości mocy nadejdzie, ale najprawdopodobniej pod koniec 2018 roku lub później.

5. Reakcja świata na Edge: Ponieważ coraz więcej przedsiębiorstw przenosi przetwarzanie danych na brzeg swoich sieci, konieczna jest poważna ocena obiektów, w których znajdują się zasoby brzegowe oraz bezpieczeństwa i własności danych tam zawartych. Dotyczy to projektów i konstrukcji, struktury i bezpieczeństwa obiektów brzegowych, a także szczegółowych zapytań związanych z posiadaniem danych. Rządy i organy nadzorujące w każdym miejscu na Ziemi będą musiały rozważyć te kwestie i podjąć stosowane działania.

Na całym świecie przesyłanie danych do chmury czy sieci głównej i z powrotem do analizy jest zbyt wolne i nieefektywne, dlatego coraz więcej klastrów danych i możliwości analitycznych znajduje się na brzegu sieci — w mieście, kraju, czy regionie innym niż miejsce działania przedsiębiorstwa. Kto posiada dane i co może z nimi zrobić? Debata trwa, ale w 2018 roku te dyskusje będą zmierzać w kierunku działań i odpowiedzi.

Aby uzyskać więcej informacji na temat powyższych trendów lub innych spostrzeżeń ekspertów Vertiv odwiedź www.Vertiv.pl.

O firmie Vertiv

Vertiv projektuje, tworzy i udostępnia w formie usług infrastrukturę o znaczeniu krytycznym dla kluczowych systemów i aplikacji w centrach danych, sieciach komunikacyjnych oraz w zakładach handlowych i przemysłowych.

Firma Vertiv, wcześniej znana jako Emerson Network Power, oferuje wsparcie dla rozwijających się rynków technologii mobilnych i chmurowych dzięki szerokiej gamie systemów do zarządzania energią, systemów klimatyzacji precyzyjnej oraz rozwiązań do zarządzania infrastrukturą. Portfolio firmy Vertiv obejmuje produkty takich marek jak Chloride®, Liebert®, NetSure™ i Trellis™. Sprzedaż w roku fiskalnym 2016 osiągnęła 4,4 mld USD. Więcej informacji można znaleźć na stronie VertivCo.com.

INVESTORS
Charakterystyka ogólna

Język i lokalizacja