Budujemy wydajne i energetycznie doskonałe
klastry i systemy HPC

Dostarczamy budowane “pod klucz” systemy high performance computing, dedykowane systemy typu technical computing oraz gęste i wydajne środowiska do serwerowni i kolokatorni.

Nasze klastry HPC korzystają z najnowszych architektur i technologii, aby zapewnić największą wydajność przy najniższym koszcie. Nasz zespół ma łącznie kilkadziesiąt lat doświadczenia w obszarze HPC. Mamy na koncie dostarczone setki serwerów pod środowiska HPC.

Nasz zespół projektowy dostarczy Ci kompletne i zintegrowane rozwiązanie wyskalowane pod Twoje aplikacje, Twoją utylizację zasobów i Twoje możliwości budżetowe.

Stosujemy chłodzenie wodne 

Do budowy najwydajniejszych systemów o największej gęstości, potrzebne jest wydajne chłodzenie. Coraz mocniejsze układy wymagają dużej mocy chłodzącej, w przeciwnym razie działają do 20% wolniej. Bezpośrednie chłodzenie wodne (DLC) oraz chłodzenie w pełnym zanurzeniu pozwala na uzyskanie maksymalnej dostępnej mocy oraz bardzo dużej gęstości zabudowy. Serwerownie mogą być mniejsze, a koszty zasilania systemu spadają o połowę.

Pomagamy wybrać najbardziej ekonomiczną platformę

Szukamy odpowiedniej platform do używanego przez Ciebie środowiska sprzętowego i aplikacyjnego. Niezależnie od skali rozwiązania, skupiamy się na zadaniach, które musimy osiągnąć w określonym budżecie. Tworzymy rozwiązania dedykowane i indywidualne, specyficzne do konkretnego rozwiązania. Nasi inżynierowie będą w stanie odpowiedzieć na pytania i wyskalować system najlepszy dla konkretnego zastosowania.

Stosujemy najnowsze rozwiązania, gdy tylko stają się dostępne

Posiadamy dobre rozeznanie i kontakty z kluczowymi dostawcami rozwiązań dla kolokatorni i serwerowni (cloud servers & storage) oraz dostawców komponentów do budowy systemów HPC. Gdy nowy procesor lub architektura staje się komercyjnie dostępna, możesz być pewien, że już ją przetestowaliśmy i jesteśmy gotowi do dostawy bardzo szybko od ogłoszenia oficjalnej dostępności. Nasi inżynierowie wdrażają rozwiązania zanim inni dostawcy je zauważą, dlatego jesteśmy w stanie zaoferować znacznie szybciej i znacznie więcej niż producenci typu A-Brand, znani z drogich rozwiązań dla rynku cloud i HPC.

 Testujemy zanim dostarczymy

Zanim dostarczymy do Ciebie cluster lub środowisko serwerowe, poświęcamy od 24 do 48 godzin na wyczerpujące testy. Systemy chłodzenia, zanim zostaną zainstalowane, przechodzą bardzo wymagające testy w komorach testowych w różnych zakresach temperatur i ciśnień. Sprawdzamy dokładnie procesory, pamięć, dyski w poszukiwaniu ewentualnych błędów. Jeśli znajdziemy problem, rozwiązujemy go in-house, tak aby dostarczyć od nas już gotowe do produkcji rozwiązanie. Dostawa jest szybka dlatego, że zazwyczaj integrujemy całość rozwiązania u nas i dostarczamy już gotowy rack wraz ze wszystkimi węzłami, okablowaniem, oznaczeniami, akcesoriami i inicjalną konfiguracją sieci i narzędzi.

Jesteśmy dostępni przez cały czas życia produktu

Nasze zaangażowanie nie kończy się po dostawie klastra. Przedstawiciel techniczny i dedykowany opiekun klienta jest do twojej dyspozycji przez cały cykl eksploatacji urządzenia, zdalnie lub osobiście.

Klastry i środowiska serwerowe CPU

Intel zapewnia najlepszą w branży wydajność dla obliczeń liczb całkowitych, zmiennoprzecinkowych oraz jeśli chodzi o wydajność pamięci. Procesory Xeon to podstawowe komponenty największych klastrów HPC. Budujemy klastry z procesorami linii Intel Xeon E5-1600v3, E5-2600v4, i E5-4600v3. W naszych klastrach integrujemy procesory Intel Xeon E5-2600v4 i E5-4600v3 series CPUs. Skalujemy je od małych departamentalnych środowisk obliczeniowych do wielkoskalowych systemów udostępniających zasoby HPC. Nasi eksperci z wieloletnim doświadczeniem w zakresie projektowania, wdrożeń i obsługi klastrów linuksowych zapewnią maksymalną wydajność, funkcjonalność i elastyczność porównywalną z systemami znanych producentów A-brand.

Do gęstej zabudowy w klastrach obliczeniowych HPC stosujemy obudowy blade, które zapewniają aż 3520 rdzeni w standardowej szafie 42U. Dwuprocesorowe węzły (10 serwerów per obudowa, 8 obudów per rack) obsługują 22-rdzeniowe procesory Intel Xeon, do 1 TB pamięci DDR4 2400MHz / 2133MHz, szybki interconnect FDR InfiniBand oraz Gigabit Ethernet, oraz dedykowany system chłodzenia wodnego DLC.

Standard rozwiązania rack pozwala na zastosowanie aż 44 rdzeni per 1 rack unit 1U. Tak samo jak powyżej – obsługują 22-rdzeniowe procesory Intel Xeon, do 1 TB pamięci DDR4 2400MHz / 2133MHz, szybki interconnect FDR InfiniBand oraz Gigabit Ethernet, oraz dedykowany system chłodzenia wodnego DLC. Przy wykorzystaniu węzłów 1U w standardowej szafie możemy zmieścić aż 1760 rdzeni. Klienci którzy wymagają dodatkowej przestrzeni dyskowej lub portów I/O mogą też zastosować węzły 2U lub 4U.

Dostarczamy także węzły 4 procesorowe, z procesorami Xeon E5-4600v3 – to wszystko tylko w 2U. Te serwery pozwalają na zastosowanie do 72 rdzeni, 2 TB pamięci DDR4, oraz interconnecty – FDR InfiniBand i Gigabit Ethernet.

Klastry z procesorami AMD Opteron mimo dominacji Intela mają określone przewagi nad konkurencją. Dzięki Opteronom uzyskujemy niższe koszty zasilania, niższy koszt zakupu i znacznie lepsze funkcjonalności chłodzenia niż w procesorach Intel. Dla obliczeń wymagających dużej mocy takich jak DSP, CFD i FEA, podobnie jak dla aplikacji bazodanowych typu big data, Opterony od AMD zapewniają szczególnie korzystny parametr koszt / wydajność oraz dużą gęstość.

Do gęstej zabudowy w klastrach obliczeniowych HPC stosujemy obudowy blade które zapewniają 2560 rdzeni w standardowej szafie 42U. Węzły oparte o procesory AMD pozwalają na umieszczenie 128 rdzeni w 2U. Każdy z serwerów mieści 2 16-rdzeniowe procesory AMD Opteron serii 6300, do 512 GB pamięci DDR3 1600Mhz, szybki interconnect InfiniBand and Gigabit Ethernet, wydajne chłodzenie bez konieczności stosowania DLC.

Dostarczamy także węzły 4 procesorowe w 1/2 lub 4U. Te serwery pozwalają na zastosowanie do 64 rdzeni, 1 TB pamięci DDR3, oraz interconnecty – FDR InfiniBand i Gigabit Ethernet, a także do 192TB na storage. Środowiska oparte o procesory AMD skalują się od małych klastrów roboczych do dużych systemów obejmujących wiele szaf. Ale as też dostępne w konfiguracjach single-system-image (SMP).

Tradycyjne serwerownie zdominowane są przez procesory Intela. Jednak dla szczególnych zastosowań obliczeniowych możemy korzystać z układów dedykowanych typu SoC System on a chip i niskoemisyjnych systemów takich jak ASIC / FPG lub procesorów ARM. Uzyskujemy w ten sposób bardzo korzystny współczynnik mocy do ilości zastosowanych rdzeni. Są to rozwiązania które eliminują z serwerowni energożerne i drogie procesory których moc i możliwości marnowane są w zastosowaniach idealnych dla środowiska FPG/ASIC/ARM – data mining, serwery webowe, terminalowe i inne zadania nie wymagające znacznej mocy obliczeniowej.

Do gęstej zabudowy w klastrach obliczeniowych HPC stosujemy obudowy blade, które zapewniają aż 3520 rdzeni w standardowej szafie 42U. Dwuprocesorowe węzły (10 serwerów per obudowa, 8 obudów per rack) obsługują 22-rdzeniowe procesory Intel Xeon, do 1 TB pamięci DDR4 2400MHz / 2133MHz, szybki interconnect FDR InfiniBand oraz Gigabit Ethernet, oraz dedykowany system chłodzenia wodnego DLC.

Standard rozwiązania rack pozwala na zastosowanie aż 44 rdzeni per 1 rack unit 1U. Obsługują 22-rdzeniowe procesory Intel Xeon, do 1 TB pamięci DDR4 2400MHz / 2133MHz, szybki interconnect FDR InfiniBand oraz Gigabit Ethernet, oraz dedykowany system chłodzenia wodnego DLC. Przy wykorzystaniu węzłów 1U w standardowej szafie możemy zmieścić aż 1760 rdzeni. Klienci, którzy wymagają dodatkowej przestrzeni dyskowej lub portów I/O mogą też zastosować węzły 2U lub 4U.

Dostarczamy także węzły 4 procesorowe, z procesorami Xeon E5-4600v3 – to wszystko tylko w 2U. Te serwery pozwalają na zastosowanie do 72 rdzeni, 2 TB pamięci DDR4, oraz interconnecty – FDR InfiniBand i Gigabit Ethernet.

Klastry hybrydowe z akceleratorami i koprocesorami

Zwiększamy moc przetwarzania w środowisku obliczeniowym stosując akceleratory Tesla K40, K80 i M40 GPUs. Dostarczamy systemy typu NVIDIA® Tesla™ GPU Powered High Density Clusters. Partner NVIDIA Solution Provider może dostarczyć klastry z akceleratorami Tesla GPU – niska moc, niski koszt, ogromna moc przetwarzania przy wykorzystaniu znacznie mniejszej ilości systemów, niż w wypadku standardowych klastrów CPU, opartych tylko o moc procesorów. Te klastry wykorzystują karty NVIDIA Tesla Kepler K80 lub karty Tesla Maxwell M40. Akceleratory posiadają do 24GB pamięci, 4992 rdzeni CUDA per jedna karta, wsparcie dla operacji IEEE 754 zmiennoprzecinkowych w pojedynczej i podwójnej precyzji oraz szybki interfejs GDDR5 do pamięci. Akceleratory GPU Tesla pozwalają na energooszczędne przetwarzanie równoległe i skalują się tak, by dostarczać równoległe przetwarzanie dla wymagających aplikacji.

Karty GPU stosowane są w badaniach naukowych, uniwersytetach, przedsiębiorstwach, centrach R&D, oraz w systemach analitycznych. Aplikacje które wykorzystują biblioteki CUDa, pracujące na akceleratorach TESLA przyspieszają do 250x razy – od takich zastosowań jak: MATLAB, do obliczeń dynamiki płynów, obliczeń dynamiki molekularnej, chemii kwantowej, obrazowania, procesowania sygnałów i bio-informatyki. Sprawdź listę aplikacji certyfikowanych do pracy z akceleratorami NVIDIi.

Dostarczamy systemy typu Xeon-Phi GPU Powered High Density Clusters. Największy klaster na świecie – Tianhe 2, korzysta z Xeon Phi™ w celu zapewnienia największej dostępnej wydajności.

Katy Intel Xeon® Phi™ zapewniają znacznie większą wydajność niż tradycyjne CPU. Ogromna liczba małych rdzeni, wielowątkowość, dedykowane VPU vector processing units powodują, że są idealne do masywnych równoległych zadań obliczeniowych. Dostarczamy rozwiązania z kartami GPU Intel Xeon Phi 3120, 5110 i 7120.

Seria 3100: Wyjątkowa wydajność przetwarzania równoległego i doskonałe wyniki obliczania algorytmów takich jak MonteCarlo*, Black-Scholes*, HPL* czy LifeSc*.

Seria 5100: Obsługa obciążeń wymagających pamięci o ogromnej przepustowości (STREAM*, Energy), obciążeń korzystających z dużej pamięci (DCC, Energy) lub kombinacji tych dwóch (algorytm Reverse Time Migration).

Seria 7100: Oferta premium dla najbardziej wymagających użytkowników zapewnia najlepszą funkcjonalność, w tym obsługę technologii Intel® Turbo Boost 1.0, oraz najwyższą wydajność i wielkość pamięci w rodzinie produktów Intel® Xeon Phi™.

Wraz z procesorami Intel Xeon, GPU Xeon Phi zapewnia wzrost wydajności aplikacji o około 2.5x. Zapewniają szczytową wydajność przekraczającą 1 teraflopa (liczba operacji zmiennoprzecinkowych na sekundę) w obliczeniach o podwójnej precyzji. Dodatkowo porównano możliwości serwerów z koprocesorem Intel® Xeon Phi™ względem procesorów rodziny Intel® Xeon® E5 i zaobserwowano 2,5 krotny wzrost szybkości operacji zmiennoprzecinkowych na sekundę (flopy), trzykrotny wzrost wydajności na jednostkę zużywanej mocy oraz 7 krotny wzrost wydajności niektórych aplikacji usług finansowych.

Xeon Phi generacji Knights Landing mają aż 8 mld tranzystorów i obsługują nawet do 384 GB pamięci DDR4. Koprocesory Intel® Xeon Phi™ obsługują do 61 rdzeni, 244 wątki i oferują moc obliczeniową do 1,2 teraflopa mierzoną w operacjach zmiennoprzecinkowych, są dostarczane w różnych konfiguracjach spełniających potrzeby różnorodnego sprzętu, oprogramowania, obciążeń, wydajności i wymagań w zakresie energooszczędności. Równocześnie już wkrótce będziemy mieli do czynienia z 3 generacją koprocesorów – “Knights Hill”. Najnowszy klaster HPC w National Energy Research Scientific Computing Center w USA będzie korzystał z akceleratorów Xeon Phi już trzeciej generacji.

AMD FirePro™ GPUs są szczególnie pożądane w serwerowniach nowej generacji, ze względu na wyjątkową wydajność i energooszczędność.

GPUs od AMD mają istotną przewagę nad akceleratorami konkurencji. Technologia AMD STREAM pozwala kartom graficznym AMD FirePro™ na wyjątkową wydajność w obliczu zasobożernych zadań compute-intensive workloads. Akceleratory wspierają nie tylko obliczenia typu massive parallel computing, ale także pozwalają na przyspieszenie pracy aplikacji, nie tylko graficznych. Mimo przewagi Intela i doskonałego marketingu systemów Nvidia, karty AMD FirePro™ S9300 x2, AMD FirePro™ S9170 i AMD FirePro™ S9150 zajmują chlubne pierwsze miejsca w swoich kategoriach.

AMD FirePro™ S9300 x2 Server GPU – flagowy model AMD, korzysta z 3 generacji architektury AMD Graphics Core Next (GCN). Dedykowany do serwerów AMD FirePro S9300 x2 GPU udostępnia aż 13.9 TFLOPS (!) dla obliczeń typu single-precision floating point, czyli więcej niż jakikolwiek inny akcelerator dostępny na rynku. Porównując z procesorami Intel Xeon E5, czysta przewaga w mocy obliczeniowej jest jeszcze bardziej dramatyczna – FirePro™ S9300 x2 GPU pozwala na 15X większą przepustowość pamięci i co najmniej 12X większą wydajność dla obliczeń zmiennoprzecinkowych w pojedynczej precyzji.

GPU od AMD posiadają także dojrzały ekosystem deweloperski. AMD dostarcza GPUOpen Professional Compute software stack, a AMD FirePro S9300 x2 Server GPU korzystają z driverów open source dla systemu Linux®, a także wpierają akceleracje korzystając z C++ i OpenCL™. Jeśli aplikacja posiada kod dedykowany dla architektury CUDA, można łatwo przeportować większość kodu na C++, dając użytkownikom możliwość zastosowania akceleratorów dwóch producentów.

W naszych rozwiązaniach stosujemy karty:
1. AMD FirePro™ S9300 x2 Server GPU – Najwydajniejszy akcelerator świata – pierwszy akcelerator GPU z przepustowością pamięci 1TB/s.
2. AMD FirePro™ S9170 czyli zaktualizowaną wersję modelu S9150
3. AMD FirePro™ S9150 Accelerator z najlepszym na świecie stosunkiem – Wydajności per Watt. Ten model karty używany jest przez najbardziej ekonomiczny klaster świata zajmujący pierwsze miejsce na #1 na liście superkomputerów Green500
4. AMD FirePro™ S9100 – Zapewnia standardową wysoką gęstość dla HPC

Planujesz budowę klastra HPC?

Zbudowaliśmy najbardziej ekonomiczny kosztowo klaster HPC w Polsce. Chętnie podzielimy się naszą wiedzą.