Multi-cloud zmienia reguły gry

Wielu decydentów w obszarze IT analizuje, czy lepiej wybrać infrastrukturę on-premise, chmurę prywatną, czy jednak chmurę publiczną. Niekiedy efektem migracji może być skokowy wzrost kosztów oraz wpadnięcie w szereg innych pułapek.

FOTO: Philipp Birmes / Pexels

Model tradycyjny, chmura prywatna, chmura publiczna? Odpowiedź będzie zależała o kryteriów, jakimi dana firma się kieruje. Dla jednej najważniejsze będzie skrócenie czasu dostarczenia nowego produktu, dla innej obniżenie wydatków na IT. Ponieważ w Polsce redukcja kosztów jest często głównym powodem przejścia na outsourcing, skupmy się na tym aspekcie.

Jeśli firma porówna swoje obecne środowisko „jeden do jednego” z chmurą publiczną, czyli policzy, ile maszyn wirtualnych i przestrzeni dyskowej potrzebuje do zbudowania takiej samej infrastruktury, to chmura publiczna okaże się rozwiązaniem... droższym.

Sytuacja może się poprawić, jeśli dany podmiot wdroży mechanizmy optymalizacji chmury. Najprostszym przykładem jest chociażby zwalnianie zasobów, gdy ich nie używamy. Jednak scenariusz, w którym sprowadzamy operatorów chmur publicznych do roli dostawców VM’ek i storage’u, jest skazany na porażkę. W tym przypadku tańsze i prawdopodobnie znacznie wydajniejsze środowisko, zbudujemy w chmurze prywatnej, która może być hostowana w zewnętrznym Data Center. Jednak z drugiej strony, chmury publiczne to portfolio innowacyjnych usług, które nie są dostępne on-premise lub nie opłaca się ich wdrażać bez odpowiedniej skali.

Zobacz również:

Migracja jak pole minowe

Migracja aplikacji do chmury wymaga indywidualnego podejścia, ale w aspekcie technicznym, polski rynek umie sobie już z nim poradzić. Ważniejszy od samego procesu migracji jest wybór aplikacji, które powinniśmy przenieść do chmury publicznej. Wybór ten jest kluczowy, jeśli nie chcemy zamiast oszczędności wygenerować dodatkowych kosztów.

Świat chmur publicznych rządzi się zupełnie innymi prawami niż środowiska on-premise, dlatego najlepiej byłoby przepisać aplikację by została „cloud native”. Często jest to jednak nieopłacalne lub nawet niemożliwe.
Stąd warto pamiętać chociażby o tym, że w chmurach publicznych wszystko, co tworzymy, powinno być redundantne, a SLA na usługi w chmurze nie zawsze przypomina to, do czego zdążyliśmy się już przyzwyczaić w tradycyjnym IT.

Istnieją usługi do przechowywania danych w chmurze, które na pierwszy rzut oka są bardzo tanie. Natomiast już odczyt tych danych tani nie jest. Dlatego takie usługi świetnie się sprawdzą do archiwizacji, ale do codziennego użytku, już nie. Należy również zawsze uwzględnić koszt transferu wychodzącego, który znacząco wpływa na końcową cenę korzystania z zasobów. Generalnie model rozliczeniowy pay-as-you-go wymusza na firmach optymalizowanie wykorzystania chmury i nie jest to na pewno trywialne zadanie.

W ubiegłorocznym raporcie IDC aż 80 procent ankietowanych wskazało, że zrezygnowało z utrzymania przynajmniej jednej aplikacji w chmurze publicznej na rzecz chmury prywatnej. Za jedną z najczęstszych przyczyn wykazywano kwestię finansową. Jeśli popatrzymy na przykład Dropbox’a, który w dwa lata po wyjściu z chmury AWS zaoszczędził blisko 75 milionów dolarów, możemy dojść do wniosku, że chmury publiczne nie są panaceum.

Z drugiej strony cały czas przybywa zastosowań chmur publicznych, a ich wykorzystanie jest racjonalne pod tyloma względami, że większość firm prędzej czy później zacznie korzystać z chmur publicznych.

Dlatego uważam, że

infrastruktura przyszłości to hybryda różnych rozwiązań, a najważniejszy punkt na check-liście migracji do chmury, to określanie celów biznesowych.
Umożliwi to podejmowanie właściwych wyborów co do miejsca i sposobu migracji.

W tym obszarze multi-cloud zmienia zasady gry. Gdy firmy otrzymają odpowiednie narzędzia, będą mogły – mam nadzieję, że przy wsparciu operatorów takich jak Netia - decydować, które aplikacje najlepiej sprawdzą się w chmurze prywatnej, które w chmurze publicznej, a nawet w kilku chmurach publicznych. Takie podejście ogranicza też zjawisko tzw. vendor-lock.

Własne Data Center tylko dla gigantów

Jeśli zaś mowa o modelu utrzymania infrastruktury, nie mam wątpliwości, że bez odpowiedniej skali, czyli co najmniej 100 szaf rackowych, utrzymanie własnej serwerowni nie ma najmniejszego uzasadnienia.

Przy obecnych cenach kolokacji, u siebie zawsze będzie drożej oraz mniej bezpiecznie, bo osiągnięcie poziomu zabezpieczeń profesjonalnego DC jest bardzo kosztowne.

Zakup we własnym zakresie serwerów i macierzy również może okazać się nieopłacalny. Obecnie dostawcy usług Data Center blisko współpracują z producentami sprzętu i są w stanie zaproponować bardzo korzystne warunki dzierżawy. Na przykład Netia nawiązała partnerstwo z Dell EMC, dzięki czemu nasi klienci mogą korzystać z pełnego portfolio tego producenta w połączeniu z abonamentowym modelem płatności.

Dzierżawiony w profesjonalnym centrum danych sprzęt fizyczny, jest często tylko bazą do zbudowania chmury prywatnej i jej utrzymania przez dostawcę usług Data Center. Bardzo ważne są również łącza, które są niezbędne do zbudowania odpowiedniej infrastruktury, szczególnie w modelu hybrydowym. Operatorzy telekomunikacyjni, którzy oferują również usługi chmurowe, mają przewagę w tym obszarze.

Autor jest starszym kierownikiem produktu w Netii S.A.


TOP 200