Amazon – najbardziej bezawaryjna chmura?

Ze statystyk dostępności publicznych chmur czołowych światowych dostawców usług IaaS wynika, że największą bezawaryjnością może pochwalić się Amazon Web Services – poinformował serwis CloudHarmony. Cześć komentatatorów poddaje jednak w wątpliwość metodologię CloudHarmony.

Zachęcamy do skorzystania z bezpłatnej prenumeraty
elektronicznej magazynu Computerworld!
Bezpieczeństwo chmur publicznych z perspektywy polskich organizacji

Bezpieczeństwo chmur publicznych z perspektywy polskich organizacji

Dowiedz się jak przedstawiciele polskich organizacji oceniają bezpieczeństwo danych - czy wyżej cenią chmurę publiczną, czy własne centrum danych. Na to oraz kilkanaście innych pytań znajdziesz odpowiedź w bezpłatnym reporcie opracowanym wspólnie przez redakcję Computerworld oraz IBM...

Zewnętrzne centrum danych: 10 powodów dlaczego warto z niego skorzystać

Zewnętrzne centrum danych: 10 powodów dlaczego warto z niego skorzystać

Zewnętrzne centrum danych: 10 powodów dlaczego warto z niego skorzystać Na fali popularności usług cloud computing rośnie zainteresowanie różnego typu usługami związanymi z wynajmem infrastruktury IT. Mają one zwiększać bezpieczeństwo działalność firm, przede wszystkim...

Serwery Lenovo tworzą otwartą i elastyczną podstawę do rozwoju centrum danych

Serwery Lenovo tworzą otwartą i elastyczną podstawę do rozwoju centrum danych

Chmura, analityka biznesowa, mobilność i inne trendy to dla centrów danych na całym świecie wyzwania, z którymi muszą zmierzyć się działy IT. W rezultacie rośnie zapotrzebowanie na serwery x86, które – oferując bardziej wydajne zarządzanie obciążeniami i konsolidację...

W ubiegłym roku w AWS wystąpiło 56 awarii, w wyniku których usługa była niedostępna łącznie przez 2,5 godziny. Na kolejnych miejscach uplasowały się Microsoft Azure oraz Google Cloud Platform – przy czym w obu przypadkach różnica między nimi a liderem rankingu była znaczna (obie usługi były niedostępne ponad 5-krotnie dłużej niż Amazon). Azure odnotował 71 awarii, co przełożyło się na 10 godzin i 49 minut niedostępności chmury Microsoftu, zaś Cloud Platform – 167 awarii (usługa Google nie działała łącznie przez 11 godzin i 34 minuty).

Dodajmy, że CloudHarmony jest serwisem na bieżąco monitorującym status usług czołowych dostawców chmury za pośrednictwem uruchomionych w nim aplikacji-sond, które są stale pingowane w celu sprawdzenia statusu. Witryna należy do firmy analitycznej Gartner, a jej właściciel cyklicznie publikuje raporty generowane na podstawie statystyk CH (CloudHarmony).

Zobacz również:

Niekompletne dane?

Warto jednak odnotować, że metodologia analiz prowadzonych przez CloudHarmony może nie w pełni oddawać realny obraz sytuacji – choćby dlatego, że serwis nie monitoruje wszystkich usług chmurowych dostarczanych przez danego dostawcę. Co więcej, serwis uruchamia swoje aplikacje sondujące w wybranych lokalizacjach obsługiwanych przez dostawców – jeśli więc awaria wystąpi w innej lokalizacji iż ta, w której działa „sonda”, może nie zostać w ogóle zarejestrowana. Tak było prawdopodobnie z ubiegłoroczną awarią bazy DynamoDB NoSQL oferowanej w ramach AWS – z relacji klientów wynikało, że nie działała ona przez kilka godzin.

Z drugiej strony, należy pamiętać, że choć metodologia testowa nie jest idealna, to jest jednocześnie taka sama dla wszystkich dostawców – dane CloudHarmony mogą więc całkiem dobrze przedstawiać sytuację na rynku usług chmurowych.

Pierwsza trójka zestawiania za 2015 r. – Amazon Web Services, Microsft Azure and Google Cloud Platform – wypadła całkiem nieźle na tle reszty uczestników. Czwarty w rankingu Digital Ocean (i jednocześnie debiutant) odnotował awarie trwające w sumie 12,26 godziny, Rackspace może pochwalić się wynikiem na poziomie 12,5 godziny, zaś dostarczana przez IBM usługa SoftLayer – 17 h. Ze ścisłej czołówki rynkowej stosunkowo słaby wynik zaliczyła usługa chmurowa firmy CenturyLink, w której odnotowano co prawda tylko 15 awarii, ale wywołany przez nie przestój w sumie trwał prawie 31,5 godziny.

Google komentuje

„Udało nam się wypracować wynik lepszy niż ten, który sami sobie wyznaczyliśmy – czyli osiągnięcie dostępności naszej usługi chmurowej na poziomie 99,95%. Warto jednak zauważyć, że widzimy pewien brak zbieżności pomiędzy tym, co wynika z danych CloudHarmony, a czego faktycznie doświadczyli nasi klienci” – skomentował Treynor Sloss, wiceprezes Google odpowiedzialny za utrzymanie usług chmurowych firmy. Sloss dodał też, że w ubiegłym roku odnotowano wiele poważnych awarii różnych usług, o których głośno było w mediach, a które nie zostały w żaden sposób uwzględnione w statystykach CloudHarmony.

Co ciekawe, przedstawiciele CloudHarmony częściowo zgadzają się z tymi zastrzeżeniami. „Nasz serwis nie powstał po to, by dostarczać kompleksowych informacji o dostępności wszystkich usług chmurowych – powinien być traktowany raczej jako podstawowe źródło danych o funkcjonowaniu usług oferowanych przez czołowych dostawców z tego sektora” – tłumaczy Jason Read, twórca CloudHarmony.

Treynor Sloss z Google dodaje, że narzędzie, które w bardziej holistyczny sposób dostarczałoby informacji o dostępności czołowych graczy cloud computingu bardzo by się przydało – co więcej, dodał też, że coś takiego już powstaje. Pracuje nad tym Google oraz konsorcjum złożone z kluczowych graczy z tego segmentu. Ich rozwiązanie ma być oparte na międzyplatformowej aplikacji do monitorowania dostępności zasobów PerfKit.

Awarie były, są i będą

Przedstawiciele CloudHarmony dodają też, że niezależnie od metodologii ich analiz, wyniki z kolejnych lat wyraźnie pokazują, że jakość usług chmurowych – przede wszystkim ich niezawodność – wyraźnie rośnie. Nie oznacza to, że o awariach będziemy mogli kiedyś zapomnieć. „Przerwy w dostawach usług będę się zdarzały – to fakt, z którym nie ma co dyskutować. Dotyczy to również usług tworzonych z myślą o użytkownikach z segmentu enterprise, w których wysoka dostępność jest kluczowa” – mówi Charles King, główny analityk Pund-IT.

Oczywiście, istnieje szereg działań które użytkownicy mogą podjąć by ograniczyć skutki ewentualnych awarii systemów chmurowych i przerw w działaniu najróżniejszych usług. Podstawowym jest przemyślane rozpraszanie zasobów w różnych centrach danych dostawcy, a nawet – pomiędzy różnych dostawców. Dobrym pomysłem może być również wdrażanie tzw. chmury hybrydowej, czyli technologii łączącej rozwiązania wykorzystujące firmowe centra danych z usługami świadczonymi przez zewnętrzne chmury publiczne lub prywatne. To rozwiązanie jest zresztą atrakcyjne nie tylko dla firm, które chcą zapewniać sobie bezawaryjną pracę i dostępność zasobów – korzystanie z systemów hybrydowych to również dobry sposób na zaprezentowanie możliwości chmury w firmach, w których personel lub szefostwo jest nieufnie nastawione do tej technologii.

Prenumerata Computerworld Zamów teraz bezpłatnie »
Dołącz do dyskusji
Bądź pierwszy i zostaw komentarz.