- Community Home
- >
- HPE Community, Poland
- >
- HPE Blog, Poland
- >
- HPE Alletra 5000 + Zerto – bezpieczna i wydajna pl...
Kategorie
Company
Local Language
Forum
Dyskusje
Forum
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
Dyskusje
Forum
Dyskusje
Dyskusje
Forum
Dyskusje
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
- BladeSystem Infrastructure and Application Solutions
- Appliance Servers
- Alpha Servers
- BackOffice Products
- Internet Products
- HPE 9000 and HPE e3000 Servers
- Networking
- Netservers
- Secure OS Software for Linux
- Server Management (Insight Manager 7)
- Windows Server 2003
- Operating System - Tru64 Unix
- ProLiant Deployment and Provisioning
- Linux-Based Community / Regional
- Microsoft System Center Integration
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Społeczność
Zasoby
Forum
Blogi
- Subskrybuj źródło RSS
- Oznacz jako nowe
- Oznacz jako przeczytane
- Zakładka
- Subskrybuj
- Strona dopasowana do drukarki
- Zgłoś nieodpowiednią zawartość
HPE Alletra 5000 + Zerto – bezpieczna i wydajna platforma do zarządzania danymi
Już od jakiegoś czasu na rynku jest obecne nowe wcielenie technologii HPE Nimble Storage pod marką HPE Alletra 6000. W pełni oparta o technologię NVMe, gdzie HPE dokonało znacznych zmian w architekturze sprzętowej, HPE Alletra 6000 stanowi poważną ewolucję architektury HPE Nimble Storage. Niedawno pojawiła się kolejna linia produktowa HPE Alletra 5000. Jest to następca macierzy hybrydowych HPE Nimble Storage HF. Podobnie jak HPE Alletra 6000 zachowała ona wszystkie dobre cechy, które pozwoliły macierzom Nimble Storage stać się ulubieńcem wielu klientów. Jednocześnie w odświeżonym „opakowaniu” dostarcza wyższe wydajności niż poprzednie pokolenie.
Zanim przejdziemy do bardziej szczegółowego opisu systemu, chciałbym zrobić kilka kroków w tył, żeby lepiej zrozumieć, dlaczego technologie pamięci masowych ewoluują w kierunku, w jakim to się obecnie odbywa. Wielkim wyzwaniem, przed jakim stoją dzisiejsze działy IT jest mnogość dedykowanych urządzeń czy systemów oraz technologii do zarządzania ciągle rosnącą ilością danych. Co więcej, ciągle zmieniają się wymagania w stosunku do poszczególnych technologii. Powoduje to wielkie rozdrobnienie technologiczne i przyczynia się do tzw. silosowości. W tym kontekście muszą działać nasze aplikacje, zarówno te tradycyjne, jak i „cloud native”. Krótko mówiąc, wszyscy stoją dziś przed niespotykaną wcześniej matrycą wyborów.
W takiej sytuacji naturalnym już dzisiaj kierunkiem jest chmura publiczna. Automatycznie pojawia się jednak pytanie – czy jest to jedyny słuszny kierunek? Nie od dziś wiadomo, że w nowoczesnym świecie to dane są najbardziej wartościowym zasobem przedsiębiorstw i instytucji. Tak też powinniśmy do danych podchodzić, jak do najcenniejszego dla nas zasobu. Z drugiej strony, nie chodzi tu tylko o zabezpieczenie tych cennych zasobów, ale wydobycie z nich jak największej wartości. Chmura obliczeniowa, oczywiście, może nam w tym bardzo pomóc, ale powinno się to odbywać na naszych zasadach. Doświadczenie chmury obliczeniowej, jest znacznie ważniejsze od samej chmury.
„Platformizacja” IT
Krótko mówiąc, powinniśmy dążyć do ewolucji naszego IT zamiast rewolucji – czyli stopniowo je zmieniać poprzez zdecydowane, ale dojrzałe decyzje. Zmiany te powinniśmy rozpatrywać z punktu widzenia kluczowych parametrów jakościowych powiązanych z biznesem: np.: utrzymanie ciągłości działania, przywrócenie po awarii, odzyskanie danych po ich utracie (np. w wyniku ataku ransomware). Czyli dopasować współczynniki SLA do rzeczywistych potrzeb biznesu czy organizacji. Technologia ma za tym jedynie podążać.
W dzisiejszym, coraz bardziej skomplikowanym świecie IT, żeby osiągnąć powyżej przedstawione cele, tak naprawdę potrzebujemy platformy, z której będziemy pobierać technologię w zależności od rzeczywistych i zmieniających się potrzeb, odpowiednią dla dowolnych scenariuszy transformacji IT.
HPE Alletra 5000 – nowoczesna platforma dla danych
Podsumowując, firmy oraz instytucje publiczne nie mają już dzisiaj wielkiego wyboru i po prostu zmuszone są stworzyć platformę do bezpiecznego, wydajnego i gotowego na nowe wyzwania zarządzania swoimi danymi. Fundamentem takiej platformy może być pamięć masowa HPE Alletra 5000, która zapewnia dostęp do nowoczesnych technologii, bezpieczeństwo i spójność danych, jakość i efektywność nieosiągalne w chociażby w chmurze publicznej.
Wszystkie dobrodziejstwa znane z macierzy HPE Nimble Storage, podobnie jak w przypadku systemów HPE Alletra 6000, są dalej obecne w najnowszych macierzach HPE Alletra 5000 (bezpośredni dostęp do najwyższej jakości poziomu 3 wsparcia, HPE InfoSight z rekomendacjami sztucznej inteligencji, 100% wydajności nawet z działającym jednym kontrolerem, RAID Triple+ (potrójnej parzystości), wielostopniowe kaskadowe sumy kontrolne itp.). Co różni oba systemy? Przede wszystkim znaczne zwiększenie wydajności macierzy HPE Alletra w warunkach rzeczywistych obciążeń aplikacji. Najbardziej interesującą częścią nie jest oczywiście “pudełko”, nieważne, jak ładne by nie było. Jest nią: prostota użytkowania, ciekawe usługi obróbki danych, automatyzacja i sprawne zarządzanie zasobami, które dalej będą dostępne z poziomu „HPE Data Services Cloud Console”. Nowa linia produktowa o nazwie Alletra 5000 jest w pełni kompatybilna z macierzami HPE Nimble Storage oraz zarządzana zarówno z własnego GUI/CLI/API jak ze wspomnianej konsoli.
Sprzęt
W odróżnieniu od niemal bliźniaczego systemu HPE Alletra 6000, w modelach serii 5000 w kontrolerach widzimy procesory Intel, podobnie jak to jest w systemach HPE Nimble Storage. Również od strony samej obudowy mamy spore różnice, gdyż nowa HPE Alletra 5000 jest kontynuacją dobrze znanej platformy sprzętowej hybdrydowych systemów HPE Nimble Storage HF. W tejże, macierz dyskową tworzy 21 dysków HDD, na których przechowywane są dane aplikacji zabezpieczane RAID-em potrójnej parzystości oraz 6 dysków SSD, służących tylko i wyłącznie do przyspieszania odczytów losowych. Praktycznie cała wydajność macierzy zależy od mocy procesorów na kontrolerach. Te działają w trybie „aktywny-oczekujący” (choć dla macierzy posługujących się protokołem Fibre Channel istnieje możliwość przejścia w tryb „aktywny-aktywny”). Znawcy technologii CASL (Cache Accelerated Sequential Layout) stworzonej jeszcze przez Nimble Storage wiedzą, że rodzaj dysków tworzących macierz pamięci masowej jest praktycznie nieistotny. O przewagach tej technologii napiszę w dalszej części artykułu.
Pełna, również sprzętowa, kompatybilność systemów HPE Alletra 5000 z HPE Nimble Storage HF Gen5 powoduje, że możliwe jest podniesienie macierzy HPE Nimble Storage HF (tzw. Gen5) do macierzy HPE Alletra 5000 poprzez zamianę kontrolerów. Wszystko to jest dobrze znane klientom systemów HPE Nimble Storage – bezprzerwowa zamiana kontrolerów z niższego modelu na wyższy, bez żadnego wpływu tak na wydajność, jak na dostęp do danych. Różnice są tak niewielkie, że praktycznie marginalne. Jednak największa kompatybilność jest, tak naprawdę, na poziomie zarządzania, gdyż macierze HPE Alletra 5000 z założenia mają być zarządzane przez konsolę DSCC, chociaż jak już było wspomniane, wciąż można nimi zarządzać z własnego GUI/CLI/API.
Poniżej sugerowana matryca przejścia z macierzy HPE Nimble Storage na odpowiedni system HPE Alletra 5000.
Oprogramowanie
Z punktu widzenia oprogramowania, jest one współdzielone z macierzami HPE Alletra 6000 i wcześniejszymi modelami HPE Nimble Storage. Stąd klienci kupujący systemy HPE Alletra 5000 otrzymują wszystkie dobrodziejstwa, którymi już cieszą się właściciele macierzy HPE Alletra 6000, takie jak zmiany w algorytmie szeregowania, kolejkowania oraz zarządzania pamięcią, optymalizacji długości ścieżek.
Z punktu widzenia systemu operacyjnego zostały wprowadzone:
- Szyfrowanie dla układów “Peer Persistence” (replikacja synchroniczna z automatycznym przełączeniem)
- Integracja LDAP
- Pełna automatyzacja konfiguracji sieci i automatyczne sprawdzanie konfiguracji dla klastra dHCI oraz wybranych przełączników
- Nowoczesne API ze wsparciem Kubernetes
- Aktualizacja macierzy do wyższego modelu bez wstrzymywania pracy systemu z generacji X10 (np. AF/CS xx000) do Gen5 (np. AF/HF xx00)
Wyższa wydajność
Zwiększona wydajność macierzy HPE Alletra 5000 spowodowana jest zastosowaniem bardziej wydajnych procesorów, a stojące za kontrolerami dyski nie mają wpływu na osiągnięcia macierzy. Co więcej, dzięki zastosowanej architekturze kontrolerów „aktywny-oczekujący” wydajność jest osiągnięta przy zachowaniu 100% rezerwy wydajnościowej, co poważnie zmniejsza ryzyko biznesowe związane z nieprzewidywalnymi sytuacjami. Oznacza to nic innego, jak to, że jeden z kontrolerów może być niedostępny (niekoniecznie ulegając awarii, ale np. z powodu prac serwisowych związanych z aktualizacją oprogramowania) a wydajność pozostanie na niezmienionym poziomie. Większość dwukontrolerowych systemów wykazuje wydajność bez żadnej rezerwy, co w sytuacji niedostępności jednego z kontrolerów redukuje osiągi systemu praktycznie o połowę…
Za ochronę danych na macierzy HPE Alletra 5000 odpowiada RAID Triple+ (potrójnej parzystości) i wielostopniowe kaskadowe sumy kontrolne. To znowuż obniża ryzyko i zapewnia ekstremalnie wysoki poziom spójności danych, setki tysięcy razy wyższy niż w innych systemach. Najwyższej jakości RAID Triple + to nie tylko ochrona przed jednoczesną utratą 3 dysków. Wisienką na torcie jest ten dodatkowy „plus”. Pozwala on na uniknięcie jakichkolwiek problemów ze spójnością danych, nawet w sytuacji, gdy każdy pojedynczy dysk doświadcza błędnych odczytów z sektora i jednocześnie nastąpiła utrata 3 dysków! Taki poziom odporności na skorelowane w czasie błędy jest niespotykany w żadnym innym systemie na świecie.
Wyzwania dzisiejszego świata i ewolucja podejścia do ochrony danych
Ataki cybernetyczne, klęski żywiołowe, błędy ludzkie czy awaria w obiekcie. Każda firma i instytucja musi być przygotowana na wszystkie te okoliczności. HPE doskonale rozumie te wyzwania i żeby wyjść naprzeciw potrzebom swoich klientów stworzyła doskonałą ofertą łączącą niezawodne i wydajne systemy HPE Alletra z unikatową technologią Zerto (część Hewlett Packard Enterprise). Uzupełniając obecne na macierzach funkcjonalności takie jak: niezmienialne kopie migawkowe, replikację asynchroniczną i synchroniczną, integrację z macierzami obiektowymi wykorzystującymi funkcjonalność protokołu S3, tzw. Object Lock, Zerto zapewnia tzw. ciągłą ochronę danych opartą o rejestrowanie w dzienniku zmian (ang. journal). Daje to niezrównane możliwości odzyskiwania zwirtualizowanych i skonteneryzowanych aplikacji od brzegu sieci do chmury. Co więcej, dzięki ujednoliconemu, skalowalnemu i zautomatyzowanemu zarządzaniu danymi w ramach platformy Zerto można błyskawicznie przenosić obciążenia i dane między różnymi ośrodkami w chmurze publicznej.
Wraz z pojawieniem się nowych wyzwań i wzrostem ryzyka wystąpienia zagrożeń już znanych, kardynalnie zmieniło się podejście do ochrony i zabezpieczania systemów oraz danych. Chyba największym obecnie wyzwaniem jest potrzeba ochrony danych rozporoszonych, zarówno w wielu warstwach tradycyjnego stosu technologicznego, jak też w wielu różnych lokalizacjach. Dziś nie zabezpieczamy już tylko tego, co jest w naszym centrum przetwarzania danych, ale też w różnych ośrodkach wielu dostawców chmury publicznej oraz na brzegu sieci (tzw. „Edge to Cloud”).
Wymieńmy kilka podstawowych wymagań, z jakimi mierzą się dziś zarządzający systemami IT:
- Ciągła dostępność do danych aplikacji, bez względu na ich lokalizację
- Pewność odzyskania danych bez względu na wielkość i złożoność systemów
- Błyskawiczne, liczone nawet w sekundach odzyskanie danych
- Ochrona danych skupiona wokół aplikacji, bez względu na platformę sprzętową ich rezydowania
- Prostota zarządzania i utrzymania znana z rozwiązań konsumenckich
- Stworzone z myślą o hybrydowym IT i wielochmurowości (tzw. „multi-cloud”)
Pojęcia takie jak: docelowe punkty odzyskiwania (RPO) czy docelowe czasy odzyskiwania (RTO) powinny być już dzisiaj znane większości administratorów oraz menedżerów IT. Coraz częściej sami właściciele biznesów czy liderzy organizacji są świadomi ich wagi, gdyż ma to bezpośredni związek z ciągłością działania przedsiębiorstwa czy organizacji.
Dla przypomnienia, RPO mówi nam na jak długi okres wstecz firmy czy instytucje mogą sobie pozwolić na utratę danych (np. kilka sekund, minut, godzin, dni, w ogóle nie możemy sobie pozwolić na utratę danych itp.)?
Z kolei RTO mówi, jak długo firma czy instytucja może czekać na odtworzenie danych po awarii (np. kilka sekund, minut, godzin, dni, nasze systemy muszą działać ciągle itp.)?
Idealnym, a wręcz oczekiwanym stanem jest to, że obie powyższe wartości wynoszą „0” czyli nasze aplikacje działają bez żadnego przestoju i nigdy nie dochodzi do utraty nawet jednego bajta danych. Niestety, w świecie rzeczywistym osiągnięcie tego stanu jest praktycznie niemożliwe lub związane z gigantycznymi kosztami. Stąd też pojawiła się potrzeba nowatorskiego rozwiązania, które przy stosunkowo niewielkim koszcie (w porównaniu do potencjalnych strat wynikłych z utraty danych i dostępności do nich) będzie w stanie jak najbardziej przybliżyć nas do tego idealnego scenariusza.
Bardzo prostym sposobem uświadomienia sobie ile kosztuje niechciany przestój systemów IT czy utrata danych jest odpowiedzenie sobie na jedno kluczowe pytanie - ile będzie kosztowało naszą firmę czy instytucję w PLN przestój IT przez np. 1 godzinę, 1 dzień, 1 tydzień itp.?
W jakich obszarach może nam pomóc Zerto?
Rozwiązanie technologiczne stworzone przez Zerto spisuje się doskonale w takich zastosowaniach jak: przywracanie systemów po awarii, odtwarzanie utraconych danych, ale też długoterminowe przechowywanie kopii zapasowych, archiwizacja, jak również migracja danych czy testowanie zarówno scenariuszy przywracania i rozwoju oprogramowania.
Zerto zapewnia możliwość bezproblemowego wdrożenia i skalowania ochrony oraz odzyskiwania po awarii sprzętowej czy utracie danych, od brzegu sieci aż do chmury publicznej. Przy najniższych w branży docelowych punktach odzyskiwania (RPO) i docelowych czasach odzyskiwania (RTO) możliwe jest osiągnięcie niemal zerowej utraty danych i przestojów aplikacji.
Co wyróżnia Zerto
- Najkrótsze RPO – liczone w sekundach
- Najszybsze RTO – odzyskanie po awarii nawet w przeciągu kilku minut
- Ochrona całego środowiska i aplikacji, też w chmurze publicznej
- Możliwość odtworzenia zarówno całego środowiska jak i pojedynczych plików
Pewność odzyskania danych po awarii i atakach typu „ransomware”
Posiadając macierze HPE Alletra oraz rozwiązanie Zerto otrzymujemy szereg narzędzi do walki ze skutkami nieuniknionego ataku typu „ransomware”. Z jednej strony mamy aplikacyjnie spójnie i niezmienialne kopie migawkowe, których na każdej macierzy HPE Alletra można zrobić nawet do 300 tysięcy. Z nich możemy się bardzo szybko odtworzyć środowisko po ataku i utracie danych. Z drugiej strony, dodając unikatowe podejście Zerto z jego dziennikiem zmian możemy w szybki i prosty sposób odzyskiwać dane po ataku i przywrócić działanie swoich aplikacji, bez względu na lokalizację. Możemy to zrobić zarówno dla kluczowego zbioru danych lub całych systemów, jak i data center. Dzięki Zerto ograniczamy straty spowodowane przestojem, skracając go do czasu liczonego nawet w minutach. Utrata danych może bezpośrednio przekładać się na utratę własności intelektualnej, produktywności i przychodów. Zerto pozwoli zapobiec utracie danych z okresu liczonego w dniach czy godzinach, na zaledwie kilka sekund.
Na koniec, nie możemy zapominać o tym, że plan odtwarzania po ataku jest tak dobry, jak zdolność do jego pomyślnej realizacji. Testowanie planów odtwarzania po ataku bez zakłócania funkcjonowania środowiska produkcyjnego pozwala wykonywać testy często, w dowolnym momencie. Wykorzystując wydajną platformę HPE Alletra 5000 i Zerto zyskamy pewność, że wszystko zadziała, dzięki szybkiemu testowaniu zarówno przełączania awaryjnego, jak i samego odtwarzania. A to wszystko bez żadnego wpływu na wydajność środowiska produkcyjnego.
- Powrót do bloga
- Nowsze artykuły
- Starsze artykuły
- Joanna_K dnia: Platforma HPE GreenLake – aspekt bezpieczeństwa
- Laptopy poleasingowe dnia: HPE rozszerza ofertę ProLiant o serwery nowej gene...
- HPE_Polska_PR dnia: Obniż koszty działalności dzięki właściwie dobrane...
- HPE_Polska dnia: W jaki sposób szybsza analityka danych może uspraw...
- AndrzejK58 dnia: HPE sadzi drzewa wraz SGGW w Rogowie! Akcja „Milio...
- Kaldekor dnia: „Drugie życie” mebli biurowych HPE Wrocław u dolon...
- ARK2 dnia: HPE sadzi drzewa, czyli akcja „Milion drzew z HPE”...
- Justyna111 dnia: HPE pionierem w skali zastosowania hybrydowego mod...
- akaminski dnia: Model as a service kluczowy dla gospodarki obiegu ...
- akaminski dnia: Nadprzydział mocy obliczeniowej i pamięci masowej ...