BEZPIECZEŃSTWO INFRASTRUKTURA

Centrum danych w ogniu

Tytuł artykułu nie bez przyczyny nawiązuje do słynnego, opartego na autentycznych faktach, filmu Ridleya Scott’a „Helikopter w ogniu”. Coraz bardziej złożona rzeczywistość firm uzależnionych od dostępności systemów, danych i sieci stawia wyzwania nie ustępujące tym ukazanym w filmie. Zarządzanie ryzykiem, gotowe plany awaryjne, przećwiczone scenariusze jak i konsekwencje ich braku – to już nie rzeczywistość zarezerwowana dla pola walki. To codzienność opartego na technologiach cyfrowych biznesu.

Skuteczny plan odzyskiwania sprawności działania po awarii musi zaspokajać specyficzne potrzeby przedsiębiorstwa jak i w większości przypadków jego klientów. Ostatnie wydarzenia związane z pożarem, który zagroził jednemu z centrów danych zlokalizowanych w Warszawie czy też spowodowana czynnikami atmosferycznymi częściowa niedostępność usług w jednym z regionów globalnego dostawcy chmury publicznej stanowią z pewnością motywację do przeglądu własnych procedur i infrastruktury zabezpieczającej jak i refleksji nad świadomością potrzeby zarządzania ryzykiem w tym obszarze.

Katastrofy IT nie są ograniczone do cyberataków. Awarie sprzętowe, błędy ludzkie, przerwy w zasilaniu i klęski żywiołowe, takie jak huragany, pożary czy trzęsienia ziemi, mogą również zakłócać procesy biznesowe i narażać cenne dane na ryzyko. Pytanie, jakie organizacja musi sobie zadać to w jaki sposób planowane rozwiązanie odzyskiwania po awarii ma wpasowywać się w istniejącą infrastrukturę. Tutaj większość firm badających rozwiązania do odzyskiwania danych po awarii z reguły należy do jednej z trzech grup – organizacji, które mają fizyczne centra danych i chcą, by ich rozwiązanie odzyskiwania po awarii osadzone było w tej fizycznej infrastrukturze, następnie firm, które mają fizyczne centra danych, ale chcą, by ich rozwiązanie zbudować w oparciu o chmurę oraz organizacje, które chcą, aby zarówno infrastruktura centrum danych jak i odzyskiwania po awarii były oparte na chmurze.

Istotne aspekty zachowania ciągłości działania i minimalizacji ryzyka przestojów czy utraty danych omawiają eksperci: od strony integratora, centrum przetwarzania danych i dostawcy usług w chmurze.

Praktyczne doświadczenia z tworzenia, testowania i zarządzania planami awaryjnymi, w tym odtwarzania po awarii

Marcin Kaczmarek, Architekt IT, @wiodący integrator IT

Aby rozmawiać o Disaster Recovery (odtwarzanie po awarii) musimy sobie uświadomić, iż jest on częścią Business Countinuity, czyli zapewnienia ciągłości działania danej organizacji. Przy czym IT jest tylko jednym z elementów. Od strony IT Disaster Recovery (DR) skupia się na przywróceniu przetwarzania po awarii (katastrofie) uniemożliwiającej pracę w ośrodku podstawowym.

Nim przejdziemy do planowania pełnego planu awaryjnego, najważniejszą rzeczą z mojego doświadczenia jest wykonanie audytu posiadanych systemów wraz z zależnościami pomiędzy nimi oraz wpływu konkretnych systemów na biznes. Jednym z najczęściej popełnianych błędów jest nieuwzględnianie w planie awaryjnym wszystkich systemów oraz błędna klasyfikacja. Przykładem może być jeden z klientów, z którym pracowałem, który w planie DR uruchomienie systemu zarządzania tożsamością uwzględnił jako jeden z ostatnich do uruchomienia. Jednak okazało się, że kluczowy dla poprawnej pracy biznesu system ERP korzystał z bazy użytkowników zawartej w systemie zarządzania tożsamością do autoryzacji przez co nie można było przywrócić normalnej pracy użytkowników.

Kolejnym krokiem powinno być określenie parametrów naszego planu awaryjnego. Najczęściej organizacje specyfikują dwa parametry:

  • Recovery Time Objective (RTO – czas, który upływa od katastrofy do odtworzenia)
  • Recovery Point Objective (RPO – aktualność danych odtworzonych po katastrofie).

Jednak z mojego doświadczenia kluczowe są jeszcze dwa parametry:

  • Network Recovery Objective (NRO – czas, który upływa od katastrofy do nawiązania awaryjnych połączeń sieciowych)
  • Maximum Data Loss (MDL – maksymalna utrata danych obejmująca wszystkie możliwości odtwarzania (logi transakcyjne, odtwarzanie danych np. z dokumentów papierowych).

NRO jest często zaniedbywanym parametrem. Kilkukrotnie podczas audytu planów ciągłości działania dla różnych organizacji okazywało się, że nie ma planów przywracania połączeń sieciowych np. koniecznych do wznowienia przetwarzania. Podobnie rzecz miała się z MDL – organizacje nie wiedziały, ile danych mogą stracić by nie odbiło się to na ich biznesie.

Kluczową kwestią jest ciągłe testowanie planów awaryjnych, jest to także największa bolączka organizacji. Niewiele firm i instytucji z którymi pracowałem regularnie testowało swoje plany awaryjne. Z mojego doświadczenia wynika, że najlepszy efekt daje regularne przełączanie pracy całej organizacji na określony czas do zapasowego ośrodka lub testowanie odtworzenia awaryjnego. Zdobywamy wtedy praktyczną wiedzę o całej procedurze przełączenia, przy czym należy pamiętać, aby do takich testów IT aktywnie angażowało biznes. W swojej wieloletniej praktyce pracy z dziesiątkami organizacji spotkałem tylko kilka, które w testy DR angażowały wszystkie departamenty z organizacji. Często okazuje się, że IT ma świetnie opanowane przełączenia jednak problemy występują po stronie komunikacji na linii biznes – IT lub po stronie biznesowej.

Podsumowując, aby skutecznie stworzyć i zarządzać planem odtwarzania po awarii musimy poznać wszystkie zależności pomiędzy systemami IT, określić parametry naszego planu awaryjnego (parametry te mają znaczący wpływ na cenę rozwiązania) oraz najważniejsze: testować, testować i testować. Warto też pracować wspólnie z biznesem nad tego typu projektami, ponieważ o ile w departamentach IT jest duża świadomość posiadania rozwiązań DR o tyle biznes niekoniecznie wie ile kosztuje go godzina niedostępności systemów IT.

Bezpieczeństwo DC w różnych aspektach, fizycznym, sieciowym, technologicznym itd. oraz znaczenie certyfikacji, o co powinni pytać klienci

Tomasz Sobol, CMO @Beyond.pl

Cyfryzacja to jeden z głównych kierunków rozwoju firm. Jest tak, ponieważ umiejętne wykorzystanie technologii pozwala na osiąganie celów strategicznych przy jednoczesnym uzyskaniu oszczędności i wzroście przychodów. Firmy, które wykorzystują rozwiązania IT zwiększają swoją zwinność biznesową, wyrażona np. szybkości wprowadzania nowych produktów lub usług na rynek. Zwiększają swoją produktywność rozumianą jako możliwość realizowania większej ilości zadań w jednostce czasu przy tych samych zasobach. Dlatego też, we współczesnej gospodarce, tak ważne stało się bezpieczeństwo IT i zagwarantowanie ciągłości działania centrów danych i uruchomionych w nich aplikacji i systemów. Każda przerwa w dostępie do usługi generuje bowiem straty, czasem nawet niewyobrażalne tj. bankructwo firmy.

Beyond.pl jest jednym z dostawców usług data center i cloud computingu, który przewidział taki scenariusz i 2 lata temu postanowił zbudować i uruchomić Centrum Danych zgodne z najwyższym standardem bezpieczeństwa, gwarantującym nieprzerwaną pracę nawet w przypadku wystąpienia awarii lub incydentu – Rated 4 ANSI/TIA 942. Certyfikacja oznacza, że wszystkie prace związane z konserwacją oraz naprawami, jak i pojedyncze błędy, nie mają wpływu na działanie serwerowni. Gwarantuje to redundancja wszystkich kluczowych obszarów takich jak: mechanika, zasilanie i telekomunikacja. Klasa Rated 4 restrykcyjnie definiuje także architekturę i lokalizację centrum przetwarzania danych. Zwraca uwagę m.in. na to, aby obiekt został zaprojektowany i zbudowany w taki sposób, aby uwzględniał minimum dwa różne podejścia zasilania energią elektryczną do budynku oraz różne trasy podejścia operatorów telekomunikacyjnych. Z kolei w przypadku lokalizacji niedopuszczalna jest budowa Centrum Danych np. na terenach zalewowych, w sąsiedztwie aeroklubów, czy też przedsiębiorstw wysokiego ryzyka jak np. spalarnia śmieci czy zakłady chemiczne.

Wybór dostawcy usług data center nigdy nie jest sprawą łatwą i nie należy dokonywać go w pochopny sposób. Od tego kto będzie przechowywał i wspomagał w przetwarzaniu naszych danych zależeć może przyszłość i rozwój naszej firmy. Warto jest więc wybór dostawcy rozważyć biorąc pod uwagę następujące kryteria:

Standard techniczny obiektu – klasa obiektu – certyfikat branżowy

Wszystkie usługi IT działają w oparciu o fizyczny sprzęt. Bez różnicy czy jest to kolokacja, serwer dedykowany, VPS, chmura obliczeniowa. Za każdą z tych usług stoi dedykowana przestrzeń pod serwer, który podłączony jest do prądu i Internetu. Jeśli zabraknie, któregoś z tych elementów to na 100% pojawią się problemy z dostępnością usług. Dlatego tak ważny jest standard techniczny centrum danych i ich zdolność do zapewnienia ciągłości działania. Ocenę obiektu możemy dokonać poprzez certyfikaty branżowe np. wydawane przez niezależne instytucje (ANSI/TIA, Uptime Institut). Warto jednak mieć na uwadze, że certyfikacja może być udzielona na projekt a nie na wybudowany obiekt. Dlatego przy wyborze dostawcy usług data center konieczna jest wizja lokalna i weryfikacja oryginalnej dokumentacji certyfikatu i ich zgodność ze stanem faktycznym.

Zdolność adaptacji do potrzeb klienta

Umowa na usługi data center zawierana są często na kilka lat, a zmiana dostawcy często wiąże się z procesem migracji. Dlatego przy wyborze warto jest zwrócić uwagę na zdolności adaptacyjne usługodawcy do naszych potrzeb i celów biznesowych w perspektywie kilku najbliższych lat. Stan idealny jest wówczas, gdy usługodawca, jest w stanie zapewnić nam przestrzeń do rozwoju, posiada inne komplementarne usługi np. cloud computing, oraz jest w stanie spełnić wytyczne wymagania do pozyskania innych certyfikacji branżowych np. tj. PCI DSS, ISO 27001, ISO 27018, SOC itp.

Wsparcie klienta

Usługi IT wymagają dużej interakcji na linii klient dostawca. W trakcie wyboru dostawcy usług Data Center warto jest zwrócić uwagę na jakość obsługi klienta i czas podejmowania i realizowania zgłoszeń. Nie bez znaczenia pozostaje też możliwość skorzystania z wsparcia architektów IT w celu optymalizacji usługi czy poprawienia jej wydajności i bezpieczeństwa.

Jak przedsiębiorstwa mogą się zabezpieczyć przed awarią z wykorzystaniem chmury?

Marcin Zmaczyński, Head of Marketing CEE @Aruba Cloud

Coraz większą popularność zdobywa chmurowa technologia Disaster Recovery as a Service (DRaaS). W razie wystąpienia awarii pozwala ona szybko przywrócić infrastrukturę, łącznie z wszystkimi hostowanymi aplikacjami, systemami plików i bieżącymi konfiguracjami systemu. W ramach tego rozwiązania, na bazie własnej infrastruktury, dostawcy chmury oferują stworzenie zapasowego centrum danych, w którym w czasie bieżącym są replikowane wszystkie informacje przechowywane i przetwarzanie przez infrastrukturę użytkownika. Takie zreplikowane, przeniesione do chmury zasoby informatyczne w przypadku awarii pozwalają natychmiast przywrócić firmie ciągłość działania.  To wygodne dla firmy „przerzucenie” odpowiedzialności za zapewnienie dostępności aplikacji i danych na usługodawcę chmurowego, dzięki któremu klient nie musi samodzielnie utrzymywać i dbać o bezpieczeństwo zapasowego centrum danych.

Prędkość przywracania danych po awarii jest precyzyjnie określana umową Service Level Agreement (SLA). Podpisanie dokumentu SLA zobowiązuje dostawcę do zapewnienia klientowi pożądanego, odpowiednio wysokiego poziomu świadczenia usług – poziom dostępności (inaczej niezawodności) w przypadku renomowanych dostawców chmury nie jest niższy niż 99,95 proc. – co oznacza maksymalnie 21minut niedostępności usług w ciągu miesiąca.

Mniejsze firmy, które dysponują ograniczonymi budżetami mogą zdecydować się na tańszą niż DRaaS usługę backupu w chmurze (Backup as a Service, BaaS), która pozwala na automatyczne tworzenie i konfigurowanie kopii zapasowych. W tym modelu jednak przywrócenie pełnej funkcjonalności systemu nie jest natychmiastowe, a czas na to potrzebny zależny jest od ilości zarchiwizowanych danych. Dla klientów działających w takich branżach, jak np. telekomunikacja czy e-commerce, gdzie dostępność świadczonych usług w modelu 24/7/365 ma ogromne znaczenie dla obrotów i zysków, niezbędne jest zapewnienie ciągłej i pełnej dostępności usług. Za dużo jest do stracenia.

Czytaj również: DevSecOps w 5 krokach

 

Obserwuj cloud forum na youtube

Chmura w Polsce: Dołącz do nas

Cloud computing w Polsce