BIZNES INFRASTRUKTURA INNOWACJE

5 trendów kształtujących obecnie strategie IT dla chmury

Od strategii zakładającej korzystanie z więcej niż jednego dostawcy chmury (multi-cloud) do ograniczania kosztów i zastosowania kontenerów – dyrektorzy IT oraz CIO są coraz bardziej pragmatyczni i selektywni, jeśli chodzi o wykorzystanie technologii chmurowych i ich efektu skali.

Model chmury obliczeniowej staje się de facto standardową platformą, którą przedsiębiorstwa wykorzystują jako siłę napędową cyfrowej transformacji oraz optymalizacji i modernizacji portfela infrastruktury i systemów IT. Organizacje w coraz większym stopniu zapewniają sobie elastyczność biznesową lub obniżają koszty ‚wynajmując’ infrastrukturę i oprogramowanie u dostawców jak Amazon Web Services (AWS), Microsoft, Google czy IBM.

Globalny rynek chmury publicznej osiągnie w tym roku 178 mld USD, w porównaniu z 146 mld USD w 2017 roku, według Forrester Research (Gartner podaje trochę inne liczby, ale rząd wielkości pozostaje analogiczny). Adopcja chmury publicznej w przedsiębiorstwach ma po raz pierwszy przekroczyć 50% (przede wszystkim dużych i na rynkach rozwiniętych). Osiągnięcie tego punktu zwrotnego było nieuniknione przy tak wielu dużych organizacjach, które inwestują i koncentrują swoje zasoby na strategicznych inicjatywach związanych z cyfryzacją biznesu.

Multi-cloud

Słowo-klucz: vendor lock-in. Wg analityków firm badawczych to dyrektorzy finansowi zachęcają do zabezpieczania się organizacji przed zależnością od jednego dostawcy poprzez rozważenie różnych opcji dywersyfikacji. Wszystko po to aby zachować neutralność i łagodzić ryzyko związane z ewentualnymi problemami z konkretnym dostawcą usług.

Kształtowanie się udziału w rynku poszczególnych globalnych dostawców usług chmury publicznej pokazuje, że mija powoli czas AWS jako dominującego i jedynego dostawcy. Dobrym przykładem jest choćby NAB (National Austaralia Bank), który w ramach pierwszego etapu transformacji w kierunku większego wykorzystania chmury postawił na szkolenia i certyfikacje kilkuset swoich pracowników przez AWS, przy czym Patrick Wright, CTO/COO w NAB, jasno deklaruje, że strategią organizacji jest multi-cloud i już teraz wykorzystują zarówno AWS jak i Azure, w planach jest również GCP. Kombinacja tych trzech dostawców – liderów Magic Quadrant Gartnera – jest najczęściej spotykana w przedsiębiorstwach.

Łatwiej to jednak powiedzieć niż zrobić. Podczas gdy konfiguracja usług pamięci masowej czy udostępniania mocy obliczeniowej jest bardzo podobna u różnych dostawców i istnieją narzędzia pozwalające na migrację między nimi, to w przypadku aplikacji tworzonych z wykorzystaniem funkcji natywnych czy platform wspierających pracę programistów można zderzyć się ze ścianą. Zagadnienia związane np. z szablonami tworzenia aplikacji tak aby były łatwo przenaszalne pomiędzy dostawcami czekają na efektywne rozwiązanie, podobnie jak standaryzacja narzędzi DevOps w chmurze.

Zadaniem CIO jest przeprowadzenie szczegółowej analizy ryzyka i korzyści (Risk / Reward) i opracowanie planu ograniczenia ryzyka operacyjnego dla organizacji.

Czytaj więcej: Architektury i scenariusze dla Multi-cloud

 

Disaster Recovery

Tradycyjnie, przedsiębiorstwa utrzymują wiele lokalizacji centrów danych, zapewniając sobie redundancję w przypadku najbardziej krytycznych aplikacji. Mniej tradycyjnie, praktyka ta nie doczekała się jeszcze przeniesienia na obszar usług przetwarzania w chmurze publicznej, zwiększając ryzyko krytycznych awarii i fatalnych konsekwencji dla organizacji. Zaskakujące jak wielu szefów IT zakłada, że podstawowe funkcje backupowe oferowane przez dostawców są wystarczające z punktu widzenia zachowania ciągłości działania przedsiębiorstwa i nie tworzy kopii zapasowych usług uruchamianych w chmurze. Ale to się zmienia w 2018 roku, ponieważ coraz więcej szefów IT docenia wagę bezpieczeństwa. CIO przyjmą strategie oparte na multi-cloud i będą wykonywać kopie bezpieczeństwa u kilku dostawców usług w chmurze lub też będą uruchamiać aplikacje w trybie redundantnym wykorzystując więcej niż jedno centrum przetwarzania danych u swoich dostawców usług chmury publicznej.

Migracja coraz większej części korporacyjnego IT do chmury publicznej niesie ze sobą rosnące koszty ewentualnych krytycznych awarii, stąd obserwować będziemy wzrost budżetów na strategie Disaster Recovery w chmurze.

Bezpieczeństwo w chmurze

W ostatnich latach automatyzacja i monitorowanie bezpieczeństwa danych, szyfrowanie i automatyzacji obciążenia i ruchu sieciowego to w dużej mierze usługi dodatkowe w chmurze publicznej. To się zmienia. Wg firm analitycznych dostawcy usług w chmurze będą oferować bardziej zintegrowane alternatywy dla ochrony w chmurze opartej o rozwiązania dedykowane (punktowe), które mają je ulepszać lub zastępować. Nie zmienia się uzasadniona obawa CIO o ewentualne konsekwencje w przypadku incydentu bezpieczeństwa dla reputacji marki.

W rezultacie analitycy zalecają stosowanie modelu zabezpieczeń „zero zaufania” (zero trust) na platformach chmurowych i pomiędzy nimi. „Nigdy nie ufaj, zawsze weryfikuj”, niezależnie czy żądanie dostępu do zasobów pochodzi z wewnątrz czy zewnątrz domeny przedsiębiorstwa. Podejście to i architektura z nim związana stanowią obecnie ‚mainstream’ w budowie zabezpieczeń systemów przedsiębiorstw, w tym również w chmurze. Model zaproponował John Kindervag w 2010 roku, wówczas główny analityk w Forrester Research.

Ograniczanie kosztów chmury

Dyrektorzy ds. informatyki współpracujący z wieloma dostawcami usług w chmurze borykają się obecnie z problemem kompleksowego zarządzania dostawcami usług w chmurze. A jest to obszar, w którym wielu dostawców i menedżerów zaopatrzenia ma niewielkie a nawet żadnego doświadczenia. AWS, Microsoft, Google i pozostali gracze nie ułatwiają tego zadania, oferując różne plany cenowe i konsumpcyjne w chmurze. Zdaniem analityków zarządzanie kosztami w chmurze jest ogromnym wyzwaniem i staje się coraz bardziej złożone. Liderzy IT nierzadko muszą zatrudnić dedykowaną osobę, odpowiedzialną za wybór i negocjacje umów z dostawcami usług w chmurze.

Mimo to menedżerowie działów IT coraz lepiej radzą sobie z ograniczaniem kosztów w chmurze, w miarę jak usprawniają swoje praktyki i nabierają doświadczenia. A jest o co walczyć – przy rosnących wydatkach na usługi w chmurze redukcja 20 – 30% nie jest rzadkością i stanowi niemałą część budżetu IT.

Konteneryzacja

Adopcja kontenerów, które umożliwiają programistom zarządzanie i łatwą migrację kodu oprogramowania, stała się w ciągu ostatnich kilku lat jednym z wiodących trendów w rozwoju systemów i aplikacji w chmurze, wspierając działania wielu firm w zakresie zarządzania rozwojem aplikacji w chmurze i DevOps. Ale kiedy testy i Proof-of-concept dowodzą przydatności aplikacji i przychodzi czas uruchomienia na produkcji, przedsiębiorstwa zaczynają odkrywać, że potrzebują czegoś jeszcze – orkiestracji. Tutaj pojawia się Kubernetes, platforma stworzona przez Google, która według przewidywań analityków będzie dominować w orkiestracji kontenerów i wygra walkę na tym terenie z Docker’em i Apache Mesos.

Nade wszystko – kultura

Aby w pełni wykorzystać wartość jaką dla organizacji generuje szybsze dostarczanie oprogramowania, wiele organizacji modyfikuje swoją kulturę organizacyjną wprowadzając metody zwinne i DevOps, aby móc w pełni wykorzystać zwinności i skalowalności oferowaną przez chmurę. Analitycy zalecają, aby CIO identyfikowali liderów IT, którzy pomagają w zmianie kultury i promują myślenie cloud-first, wspierając ich poprzez m.in. udział w programach szkoleniowych, takich jak IBM Cloud Garage, Pivotal Labs i Red Hat Open Innovation Labs czy też oferowanych coraz częściej przez wiodące szkoły biznesu.

Programy te pomagają przełamać stare nawyki, wzmocnić pożądane zachowania i poprawić koncentrację inżynierów na kluczowych celach biznesowych. Jeśli cele organizacji ewoluują w kierunku wykorzystania chmury i polegają w dużej mierze na szybkim dostarczaniu działającego kodu, do tego na dużą skalę i przy użyciu najnowszych, nowatorskich platform i narzędzi, zacząć należy od zmiany kultury – a to nie jest łatwe.