Przyszłość datacenter jest zielona
DATA CENTER INNOWACJE

Przyszłość centrów danych jest zielona i inteligentna

Rosnące zapotrzebowanie na moce obliczeniowe w chmurze skłania do spojrzenia w przyszłość centrów przetwarzania danych. Jak zapewnić większą efektywność energetyczną, jak optymalizować zużycie energii przy jednoczesnym wzroście obsługiwanych obciążeń, zmniejszyć rolę czynnika ludzkiego tak w obsłudze jak i zarządzaniu bezpieczeństwem – to tylko najważniejsze z wyzwań.

Biorąc pod uwagę nasilenie transformacji biznesu w kierunku technologii cyfrowych i coraz powszechniejsze zastosowania technologii nowej generacji, jak sztuczna inteligencja i uczenie maszynowe, 5G, inteligentne aplikacje miejskie powiązane z internetem rzeczy, nierealistyczne byłoby oczekiwanie zmniejszenia (czy choćby utrzymania) tempa przyrostu ilości danych. Nie powstrzymamy też wzrostu naszej zależności od nich – ludzkość rozpoczyna czwartą Rewolucję Przemysłową. IDC przewiduje, że światowe zasoby generowanych danych rocznie wzrosną do 175 ZB (zetabajtów) w 2025 roku – z 41 ZB w 2019 roku. Rośnie też znaczenie dostawców hiperskalowych –prognozuje się, że w 2021 roku na centra danych tych operatorów przypadać będzie 55% całego ruchu sieciowego do/z centrów danych, 65% przechowywanych danych i 69% wszystkich obciążeń obliczeniowych. Niezbędne do chłodzenia zasoby wodne również stanowią problem, zwłaszcza w krajach rozwiniętych, ponieważ zasoby wody słodkiej się kurczą a centra danych odpowiadają za znaczą część zużycia wody przez przemysł. Za 5 lat centra danych będą też odpowiadać za 20% światowego zapotrzebowania na energię.

AI na ratunek

Przytoczone liczby działają na wyobraźnię, ale też działają na pozycje budżetowe dostawców. Przy tej skali niemal każde rozwiązanie technologiczne, organizacyjne czy algorytmiczne dostarczające usprawnienia na poziomie kliku punktów procentowych jest warte inwestycji, przynosząc korzyści liczone w dziesiątkach mln USD rocznie. Naturalnym krokiem jest poszukiwanie nowych sposobów optymalizacji z wykorzystaniem uczenia maszynowego – algorytmów wykorzystujących do uczenia ogromne ilości danych zbieranych i generowanych przez centra danych zarówno w sferze logicznej (przepływy danych, statystyki, logi) jak i fizycznej (sensory, czujniki, urządzenia i instalacje zasilania, chłodzenia, itp.)

Bezpieczeństwo

Obawy klientów o bezpieczeństwo chmury są już raczej faktem historycznym, niemniej centra danych są wystawione na różne rodzaje zagrożeń a ochrona zasobów powierzonych przez klientów jest dla dostawców pryncypialna. Mimo podziału odpowiedzialności za bezpieczeństwo między dostawcą a klientem (współdzielony model odpowiedzialności) dostawcy starają się działać proaktywnie. Stąd mamy do czynienia nie tylko z wykorzystaniem analityki w wyszukiwaniu i analizowaniu ataków bezpośrednio na infrastrukturę samego dostawcy, ale również zastosowania analizy ruchu przychodzącego i wychodzącego w czasie rzeczywistym w celu wczesnego wykrycia możliwych naruszeń mających swoje źródło po stronie klienta.

W najbliższej przyszłości obserwować będziemy doskonalenie modeli predyktywnych mających na celu uprzedzenie działań przestępczych i minimalizację szkód. Będzie to możliwe z wykorzystaniem rosnącej ilości dostępnych danych pokazujących m.in. typowe i nietypowe zachowanie klientów, podejmowane przez nich działania, natężenie ruchu, transfer danych czy działania konfiguracyjne. Stosowane będą podejścia łączące model matematyczne i behawioralne, dzięki czemu wzrosnąć ma wykrywanie naruszeń przez atak „symulujący” zwykłe zachowanie klienta.

Dodatkowo, dzięki wykorzystaniu sztucznej inteligencji w centrum danych można wykryć obecność złośliwego oprogramowania (malware) i zidentyfikować luki w zabezpieczeniach systemów centrum danych a dalej, podjąć działania aktywne np. sugerując klientowi zmiany w konfiguracji usług.

Znaczenie uczenia maszynowego, nowych algorytmów oraz wykorzystania ogromnej ilości punktów danych gromadzonych każdego dnia najlepiej zilustrować liczbami. – Różne funkcjonalności sztucznej inteligencji wbudowane w rozwiązania Microsoft Security są trenowane w oparciu o 8 bilionów sygnałów o zagrożeniach zbieranych codziennie oraz o analizy 3,5 tys. ekspertów ds. bezpieczeństwa. – mówi Ann Johnson, VP Cybersecurity Solutions Group, Microsoft. – Dedykowane algorytmy i modele uczenia maszynowego powstają i uczą się z miliardów zapytań każdego dnia. W rezultacie, rozwiązania Microsoft Security pomagają w identyfikacji zagrożeń i reagowaniu na nie o 50% szybciej niż było to możliwe zaledwie 12 miesięcy temu. Obecnie są też w stanie zautomatyzować 97% typowych, powtarzalnych zadań, które jeszcze dwa lata temu zajmowały cenny czas specjalistów.

 

Prace badawcze nad nowatorskimi technikami wykrywania zagrożeń prowadzą specjaliści działający w strukturach globalnego zespołu ds. wykrywania zagrożeń bezpieczeństwa (Microsoft Threat Protection Intelligence Team). W ramach współpracy z Intel Labs poszukują nowych zastosowań uczenia głębokiego (deep learning) w klasyfikacji złośliwego oprogramowania, m.in. wykorzystując stosowane w analizie obrazu techniki znane jako deep transfer learning (DTL) do statycznej klasyfikacji złośliwego oprogramowania (malware) oraz optymalizacji technik uczenia głębokiego pod kątem eksploracji możliwości sprzętowych w celu wykrywania złośliwego oprogramowania.

Szczególnie interesujący jest projekt wykorzystujący DTL. Pliki binarne są zamieniane na obrazy w skali szarości a proces treningowy dzięki charakterystycznym wzorcom i strukturom zawartym w obrazach pozwoli na klasyfikację plików binarnych na podejrzane i czyste lub nawet grupować różne rodziny zagrożeń.

Kolejnym interesującym projektem opartym na wykorzystaniu uczenia głębokiego jest wykrywanie skryptów PowerShell zawierających złośliwy kod. Zespół badawczy stosując techniki przetwarzania języka naturalnego (NLP) takie jak word2vec oraz architektury sieci neuronowych konwolucyjnych oraz LSTM (Long Short term Memory) zbudował model, który z sukcesem jest stosowany w narzędziu Microsoft Defender ATP.

Zarządzanie energią

Działalność centrum danych jest bardzo energochłonna a wykładniczy wzrost np. obciążeń w obszarze sztucznej inteligencji jest źródłem alarmujących analiz. Badania przeprowadzone przez m.in. Emmę Struber (University of Massachusetts, Amherst) pokazały, że tworzenie architektury i uczenie modelu językowego dla translacji maszynowej w oparciu o głębokie sieci neuronowe może odpowiadać nawet za 626 tys. ton emisji CO2 przy średniej emisji przez mieszkańca USA na poziomie…. 36 tys. ton CO2 rocznie!

Znaczna część energii jest też zużywana w systemach chłodzenia centrów danych, stąd spora część badań i eksperymentów koncentruje się też na tym obszarze, m.in. budowa kompaktowych centrów danych umieszczanych na dnie morskim, takich jak w projekcie Natick prowadzonym przez Microsoft.

Tylko w USA centra danych zużywają ponad 90 mld kWh w ciągu roku. W skali globalnej jest to około 416 terawatów. Dlatego też zużycie energii stanowi istotny problem dla centrów danych. Dodatkowo, zużycie energii elektrycznej będzie się podwajać co cztery lata w miarę wzrostu globalnego ruchu danych. Aby oszczędzać energię, organizacje nieustannie poszukują nowych rozwiązań.

Międzynarodowe firmy technologiczne wykorzystują sztuczną inteligencję do poprawy efektywności energetycznej centrów danych na wielu płaszczyznach. Microsoft koncentruje się na działaniach R&D w zakresie wydajności i energii odnawialnej, m.in. uruchomiona zostanie nowa, oparta na danych inicjatywa w zakresie „obiegu zamkniętego chmury”, wykorzystująca Internet rzeczy (IoT), blockchain i sztuczną inteligencję (AI) do monitorowania wydajności i usprawnienia ponownego wykorzystania, odsprzedaży i recyklingu zasobów centrów danych, w tym serwerów.

Algorytmy uczenia maszynowego mogą zostać zastosowane do analizy wartości temperatury, testowania przepływów ciepła czy monitoringu urządzeń chłodzących. Danych do procesu treningowego dostarczają urządzenia sterujące oraz inteligentne czujniki. Dzięki temu, że nowe dane są na bieżąco gromadzone i wykorzystywane do korekcji parametrów algorytmów dokładność może wciąż rosnąć. System może działać autonomicznie – zidentyfikować źródła nieefektywności energetycznej i skorygować korzystając z układów automatyki.

Innym aspektem optymalizacji energetycznej jest pożyteczne wykorzystanie nadmiarowej mocy obliczeniowej. Eksperymentalne centrum danych wspomnianego już projektu Natick, zanurzone pod powierzchnią morza u wybrzeży szkockich wysp Orkney przetwarza dane w ramach globalnych rozproszonych projektów badawczych. Niewykorzystana moc obliczeniowa centrum jest przeznaczona do wykonywania określonych zadań dla dużych projektów badawczych, takich jak np. analiza białek wirusów, które powodują COVID-19, poszukiwanie i analiza skutecznych terapii. Inne trwające projekty to badania nad zmianami klimatu, mapowania markerów raka czy poszukiwanie skutecznych metod zwalczania chorób zakaźnych.

Microsoft Natick project - datacenter u wybrzeży Orknay
Datacenter projektu Natick przed zanurzeniem u wybrzeży wysp Orknay, Szkocja. Źródło: Microsoft

Zielono i efektywnie

Większość światowych operatorów centrów danych już jest lub wkrótce będzie neutralna pod względem emisji CO2 do atmosfery. Czy to tylko moda na zieloną energię? Jeśli tak by miało być, byłaby bardzo kosztowna i nie bilansowałaby się ekonomicznie na konkurencyjnym rynku. Bezpośrednią korzyścią finansową jest z pewnością brak konsekwencji podatkowych. Ale poszukiwanie nowych rozwiązań pobudza innowacje, a te z kolei owocują w rozwiązaniach pozwalających na zapewnienie energii tańszej, o przewidywalnych i skalowalnych dostawach itp. Stąd inwestycje w lokalizacjach pozwalających na wykorzystanie zasobów naturalnych (woda, wiatr) bądź też projekty wykorzystujące zasoby naturalne w innowacyjnych sposób, jak wspomniany już wyżej projekt Natick firmy Microsoft. Na koniec 2019 roku firma zasilała swoje centra danych w 60% energią ze źródeł odnawialnych, stawiając za cel 70% w 2023 r. na razie bez konkretnej daty. Na początku tego roku Microsoft ogłosił, że do końca 2030 roku zamierza osiągnąć… ujemny ślad węglowy. To znaczy, że będzie usuwać ze środowiska więcej CO2 niż będzie emitować. Neutralność węglową Microsoft osiągnął już w 2012 r., ale stopniowo zamierza dojść do wyłącznego korzystania z energii „zielonej”. Do roku 2050 firma zamierza usunąć z atmosfery równowartość CO2 wyemitowanego przez nią od początku istnienia, czyli od 1975 r. Warto zaznaczyć, że do własnego śladu węglowego Microsoft zalicza emisje pochodzące z rosnącej liczby centrów danych i powierzchni biurowych firmy, jak i od dostawców.