Nowy projekt architektury AI
Pobierz energooszczędną architekturę chłodzenia i zasilania Vertiv dla platformy NVIDIA GB300 NVL72, dostępną jako zasoby SimReady™ w projekcie NVIDIA Omniverse.
Studium przypadku klienta
Przekonaj się, jak rozwiązania w zakresie infrastruktury Vertiv, architektura obliczeniowa NVIDIA oraz systemy AI Domyn łączą się w COLOSSEUM, tworząc modułową, skalowalną infrastrukturę AI.
Wiodące możliwości w zakresie AI podczas konferencji NVIDIA GTC 2025
AI nowej generacji wymaga infrastruktury, która jest gotowa na obecne i przyszłe wyzwania. Podczas konferencji NVIDIA GTC 2025 firma Vertiv zaprezentowała podstawę przyszłości sztucznej inteligencji: kompleksowe rozwiązania zaprojektowane z myślą o skalowalności.
Dowiedz się więcej
Poznaj transformację AI
Projekt
Pobierz projekty referencyjne i dokumenty techniczne
Wdrażaj
Znajdź odpowiednie rozwiązanie AI
Weź udział
Zaprojektuj swoje rozwiązanie i skontaktuj się z nami
INFORMACJE
Wizja centrum przetwarzania danych:
W jaki sposób infrastruktura centrum przetwarzania danych będzie ewoluować, aby wspierać sztuczną inteligencję i przyspieszać obliczenia

Ebook
Strategiczne imperatywy: Priorytetyzacja transformacji AI
Przyspiesz innowacje w zakresie sztucznej inteligencji dzięki tym podstawowym zasadom, aby zaspokoić potrzeby coraz bardziej złożonej krytycznej infrastruktury cyfrowej.
Webcasty
DCD – Dzień innowacji Vertiv w chłodzeniu centrów danych
15 lipca 2025 r.
Artykuły
Rozwiązania Vertiv oparte na AI do zarządzania obciążeniami zasilania w centrach danych
Uzyskaj dostęp do zasobów, które pomogą przekształcić Twoje centrum danych i maksymalnie wykorzystać potencjał AI dzięki fachowemu doradztwu.
Kluczowe wymagania i wyzwania AI
Poznaj zasady projektowania optymalizujące infrastrukturę AI i skorzystaj z planu bezproblemowego wdrożenia.
Interaktywne narzędzie projektowe
Projektowanie nowych budynków
| Gęstość szaf | Liczba szaf | Liczba procesorów | ID projektu | Technologia chłodzenia | ||
|---|---|---|---|---|---|---|
| ND | EMEA | AZJA | ||||
| 20 kW | 18 | 248 | RD002 |
RD002E |
RD002A |
Powietrze |
| 40 kW | 10 | 248 | RD003 |
RD003E |
RD003A |
Powietrze |
| 40 kW | 10 | 248 | RD004 |
RD004E |
RD004A |
Powietrze |
| 73 kW | 52 | 1152 | RD006 |
RD006E |
RD006A |
Ciecz + powietrze |
| 73 kW | 110 | 2880 | RD007 | RD007E |
RD007A |
Ciecz + powietrze |
| 132 kW | 36 | 1152 | RD014 |
RD014E |
RD014A |
Ciecz + powietrze |
| 132 kW | 54 | 1728 | RD015 |
RD015E |
RD015A |
Ciecz + powietrze |
| 132 kW | 72 | 2304 | RD016 |
RD016E |
RD016A |
Ciecz + powietrze |
| 75 kW | 8 | 64 | RD017 |
RD017E |
RD017A | Ciecz + powietrze |
| 90 kW | 12 | 576 | RD018 |
RD018E |
RD018A | Ciecz + powietrze |
| 132 kW | 18 | 576 | RD019 |
RD019E |
RD019A | Ciecz + powietrze |
| 130 kW | 108 | 3456 | RD020 |
RD020E | RD020A | Ciecz + powietrze |
| 130 kW | 18 | 576 | RD021 |
RD021E | RD021A | Ciecz + powietrze |
| 29kW | 18 | 248 | RD022 |
RD022E | RD022A | Powietrze |
| 58kW | 10 | 248 | RD024 |
RD024E | RD024A | Powietrze |
| 132 kW | 36 | 1152 | RD025 |
RD025E | RD025A | Ciecz + powietrze |
| 132 kW | 36 | 1152 | RD026 |
RD026E | RD026A | Ciecz + powietrze |
| 142kW | 40 | 1152 | RD027 |
- | - | Ciecz + powietrze |
| 269kW | 36 | 1152 | RD300 | RD300E | RD300A | Ciecz |
| 500 kW | - | - | RD500 | RD500E | RD500A | Ciecz |
Projekt zoptymalizowany pod kątem modernizacji
| Gęstość szaf | Liczba szaf | Liczba procesorów | ID projektu | Technologia chłodzenia | ||
|---|---|---|---|---|---|---|
| ND | EMEA | AZJA | ||||
| 40 kW | 4 | 128 | 4X160R |
Nd. | 4X160RA | Powietrze |
| 70 kW | 1 | 64 | 1L88R |
1L88RE |
1L88RA |
Ciecz + powietrze |
| 80kW | 1 | 40 | 1X80 |
1X80E | 1X80A | Powietrze |
| 100 kW | 1 | 88 | 1L100R |
1L100RE |
1L100RA |
Ciecz + powietrze |
| 100 kW | 4 | 368 | 4L400R |
Nd. | 4L400RA | Ciecz + powietrze |
| 100 kW | 4 | 368 | 4XL400 |
4XL400E |
4XL400A |
Ciecz + powietrze |
| 100 kW | 5 | 460 | 5L500 |
5L500E |
5L500A |
Ciecz + powietrze |
| 100 kW | 12 | 1104 | 12XL1200 |
12XL1200E |
12XL1200A |
Ciecz + powietrze |
| 100 kW | 14 | 1288 | 14L1400E |
14L1400E |
14L1400A |
Ciecz + powietrze |
| 115kW | 1 | - | Nd. | 1XL115E |
Nd. | Ciecz + powietrze |
Rozpocznij swoją przygodę z AI.
Zostań partnerem.


Znaczący postęp w dziedzinie AI stawia coraz większe wymagania centrom danych. Eksperci Vertiv dyskutowali na temat trendów, które będą kształtować branżę IT w 2024 r. i w późniejszych latach.
Obejrzyj całą transmisję DCD
Rosnące zapotrzebowanie na AI skłania firmy do optymalizacji operacji, wdrażania nowych konstrukcji lub modernizacji istniejących obiektów z wykorzystaniem zrównoważonych technologii takich jak chłodzenie cieczą serwerów AI oraz efektywne energetycznie projekty centrów danych.

Systemy magazynowania energii w akumulatorach (BESS) zminimalizują użycie generatorów, prowadząc do modeli „bring your own power”, integrujących wydajność, niezawodność i opłacalność dla obciążeń AI.

Dostawcy chmury i kolokacji rozszerzają swoje portfolio, aby sprostać zapotrzebowaniu, podczas gdy firmowe centra danych dywersyfikują inwestycje, koncentrując się na rozwiązaniach modularnych i optymalizacji starszych systemów.

Gartner prognozuje 20,4% wzrost globalnych wydatków na chmurę w 2024 roku, przy czym 80% dyrektorów IT intensyfikuje inwestycje w cyberbezpieczeństwo w odpowiedzi na złożone przepisy dotyczące przetwarzania i ochrony danych.
Wiodący producenci chipów AI współpracują z firmą Vertiv
Vertiv wnosi swoją wiedzę ekspercką do sieci partnerów NVIDIA
Firmy Vertiv i NVIDIA współpracowały nad opracowaniem unikalnego rozwiązania z zakresu chłodzenia AI w ramach programu COOLERCHIPS. Podczas współpracy partnerstwo zostało sformalizowane a Vertiv dołączył do sieci partnerów NVIDIA. Najnowocześniejsze platformy NVIDIA wymagają zaawansowanych rozwiązań infrastrukturalnych. Wdrożenia sztucznej inteligencji mogą liczyć na wiodącą pozycję Vertiv w zakresie zasilania i chłodzenia, aby AI działało bez względu na rozmiar klastra.
Porozmawiaj z ekspertem
Zostaw swoje dane, a nasi eksperci ds. rozwiązań AI skontaktują się z Tobą.
Twoje zgłoszenie zostało przyjęte!
Dziękujemy za kontakt.