Czas na utility computing

Po raz pierwszy w historii branży IT koncepcja outsourcingu mocy obliczeniowych (utility computing) staje się realną alternatywą dla innych metod implementacji rozwiązań informatycznych.

Po raz pierwszy w historii branży IT koncepcja outsourcingu mocy obliczeniowych (utility computing) staje się realną alternatywą dla innych metod implementacji rozwiązań informatycznych.

Minęło ponad 45 lat od pojawienia się koncepcji utility computing. Jako pierwszy użył go podczas wykładu na MIT John McCarthy w 1961 r. Ta - nierozerwalnie związana z outsourcingiem - koncepcja powraca regularnie co dekadę, rozpowszechniana głównie przez dostawców, którzy widzą w tym sposób na polepszenie sprzedaży usług. Coraz więcej zaczyna się o niej mówić także teraz. Wygląda jednak na to, że po raz pierwszy w historii utility computing może stanowić realną alternatywę dla innych sposobów implementacji technologii IT. Według najnowszych danych IDC usługi związane z hostingiem infrastruktury i aplikacji stanowią odpowiednio 13% i 3% wydatków ponoszonych na outsourcing w Polsce. Coraz więcej firm także w Polsce pyta o możliwość outsourcingu infrastruktury potrzebnej do obsługi dużych aplikacji biznesowych.

Sprzyjająca nieprzewidywalność

Z czego wynika ten wzrost zainteresowania? Podstawowym czynnikiem jest coraz większa trudność w przewidzeniu potrzeb biznesu, a co za tym idzie także przewidywanych obciążeń, którym będzie musiała podołać infrastruktura. Czasem wynika to z braku odpowiedniej współpracy pomiędzy zarządem i działami biznesowymi a IT. Informatycy są zawsze zaskoczeni potrzebami biznesu, bo nikt nigdy nie konsultuje z nimi potrzeb i oczekiwań względem IT, a często sami nie są w stanie o to zadbać. Czasem wynika to jednak z charakterystyki samego biznesu, który przechodzi okresy wzmożonego zapotrzebowania na moc obliczeniową, np. ze względu na prowadzenie zmasowanych kampanii marketingowych albo projekty badawczo-rozwojowe.

W wielu firmach popyt na nowy model świadczenia usług jest pochodną odwrotnego czynnika. Jak przed kilku laty oszacował Nicholas Carr, przeciętne przedsiębiorstwo wykorzystuje zaledwie 15-30% mocy serwera, 5% możliwości stacji roboczej i 25-50% przestrzeni dyskowych. Gdy przedsiębiorstwo uzmysłowi sobie już te wskaźniki, zwykle dochodzi do wniosku, że może sporo zaoszczędzić na takiej optymalizacji. A przy tym uwolnić środki na inne inwestycje, co - w sytuacji gdy 70-90% budżetów IT pochłania utrzymanie infrastruktury - stanowi niebagatelne oszczędności.

Wzrost zainteresowania utility computing związany jest także z upowszechnieniem się architektury zorientowanej na usługi (SOA). "Skoro wszystkie procesy biznesowe mogą być wspierane za pomocą złożonych z szeregu komponentów usług, po co inwestować pieniądze w zakup komputerów, które miałyby te usługi obsługiwać?" - zastanawia się coraz więcej przedsiębiorstw.

Korzyści z outsourcingu mocy obliczeniowych

  1. Przeniesienie części kosztów związanych z zakupem i modernizacją platformy sprzętowej na dostawcę.
  2. Obniżenie kosztów obsługi i integracji poszczególnych elementów infrastruktury.
  3. Przeniesienie części ryzyka powiązanego z infrastrukturą na dostawcę usługi (zarówno związanego z jej utrzymaniem, jak i tego, wynikającego ze zmian technologicznych).
  4. Swobodne żonglowanie mocą obliczeniową w miarę zmieniających się potrzeb technologicznych przedsiębiorstwa.
  5. Umożliwienie wewnętrznemu działowi IT skupienia się na kluczowych zadaniach związanych z usprawnianiem procesów czy współpracą przy kreowaniu produktów z biznesem, bez konieczności oddawania się pracom związanym z infrastrukturą.

Elastyczna żonglerka

Outsourcing mocy obliczeniowych niesie ze sobą kilka korzyści. Pozwala na przeniesienie co najmniej części kosztów związanych z zakupem i modernizacją platformy sprzętowej na dostawcę. Pomaga w obniżeniu kosztów obsługi i integracji poszczególnych elementów infrastruktury. Pozwala także na przeniesienie części ryzyka powiązanego z infrastrukturą na dostawcę usługi. Dotyczy to zarówno ryzyka związanego z jej utrzymaniem, jak i tego wynikającego ze zmian technologicznych, którym co 2, 3 lata podlegają rozwiązania sprzętowe.

Współpraca z dostawcą zewnętrznym umożliwia także wprowadzenie większej elastyczności infrastruktury. Umożliwia swobodne żonglowanie mocą obliczeniową w miarę zmieniających się potrzeb technologicznych przedsiębiorstwa. Dzięki temu przedsiębiorstwo może w miarę wzrastających potrzeb podnająć dodatkowe serwery i macierze na potrzeby realizowanych projektów. Może również czerpać korzyści proporcjonalne do części oddanej infrastruktury. Przedsiębiorstwa mogą oddać w outsourcing część zasobów, uniezależniając się tym samym od polityki głównego dostawcy. Takie zróżnicowanie jest nieco czasochłonne, jednak pozwala na zachowanie całkowitej niezależności. Daje również gwarancję silnego zaangażowania wszystkich dostawców w kontrakt. Nic bowiem tak nie przymusza do odpowiedzialności jak świadomość, że nasze zlecenie może być łatwo przejęte przez innego dostawcę.

Utility computing niesie także istotne skutki organizacyjne. Pozwala wewnętrznemu działowi IT na skupienie się na kluczowych zadaniach związanych z usprawnianiem procesów czy współpracą przy kreowaniu produktów z biznesem, bez konieczności oddawania się czasochłonnym pracom związanym z utrzymaniem infrastruktury.

Nic za darmo

13%

wydatków ponoszonych w Polsce na outsourcing związanych jest z hos-tingiem infrastruktury.

Outsourcing mocy obliczeniowych upraszcza zarządzanie infrastrukturą. Mylą się jednak ci, którzy zakładają, że zaangażowanie firmy zewnętrznej zmniejsza liczbę pracy po stronie działu IT. Oczywiście po podpisaniu kontraktu jest jej zwykle mniej. Przygotowanie samej umowy musi być jednak poprzedzone gruntowną analizą potrzeb. Zwykle wiąże się to z koniecznością wprowadzenia w organizacji ładu IT (IT governance) i wypracowania metod prognozowania przyszłych potrzeb na podstawie strategii biznesowej przedsiębiorstwa.

Równie pracochłonnym elementem jest analiza poprzedzająca podpisanie umowy. W jej trakcie dość często okazuje się, że niezbędny będzie kompromis pomiędzy oczekiwaniami klientów a ekonomicznie uzasadnionym modelem obsługi przyjętym przez dostawcę. Zwykle dostawcy wspierają klienta w procesie analizy. Dobrze byłoby jednak, gdyby pewne rzeczy przedsiębiorstwo zrobiło na własną rękę - chociażby po to, aby móc skonfrontować propozycje dostawców z własnym modelem.

Decyzja o zleceniu przetwarzania części danych na zewnątrz musi być podjęta w sposób przemyślany przy uwzględnieniu długofalowych korzyści i zagrożeń wynikających z dopuszczenia do współpracy z firmą zewnętrzną. Oprócz podstawowych kwestii związanych z bezpieczeństwem prowadzenia biznesu, oceniając dostawcę, warto wziąć pod uwagę kompetencje zespołu odpowiedzialnego za obsługę klientów, a także ich stosunek do klientów. Przynajmniej na razie, gdy rynek dostawców specjalizujących się w usługach utility computing jest stosunkowo mały, outsourcing mocy obliczeniowych oznacza długofalowy związek z dostawcą. Ma on szanse powodzenia jedynie wtedy, gdy dostawca traktuje swoich klientów w sposób priorytetowy. Tylko jeśli wiemy czego dokładnie chcemy, możemy wybrać odpowiednią ofertę, kierując się jej kosztem i korzyściami biznesowymi, a nie biegłością marketingową dostawcy.

Dla Computerworld komentuje Łukasz Dutkiewicz, Engagement Manager, HP Outsourcing Services, Central

Przez wiele lat główną troską osób odpowiedzialnych za system informatyczny było to, by system ten działał prawidłowo. Dziś technologia i usługi IT dojrzały do tego, by zainteresować się tym, w jaki sposób inwestycje IT powiązać z biznesowym rytmem funkcjonowania firmy. W większości przedsiębiorstw udało się dojść do porozumienia pomiędzy lokalnym IT a biznesem w zakresie wymaganego poziomu usług i uzgodnić wewnętrzne umowy operacyjne OLA. Utrzymanie systemów w ruchu na wymaganym poziomie udaje się w stopniu co najmniej zadowalającym. Zwykle wiadomo też, ile obecnie kosztuje IT.

Ten poziom informacji wydaje się dziś niezadowalający. Dyrektorzy finansowi oczekują odpowiedzi na trudniejsze pytania: jak będą kształtować się potrzeby finansowe IT na najbliższe pięć lat? Jakim zmianom ulegną, gdy produkcja zostanie zwiększona o 70%? Dokładne prognozowanie budżetu IT w obliczu szybko zmieniającej się koniunktury gospodarczej i dopasowywanie mocy obliczeniowej do potrzeb nowych wersji aplikacji to przy obecnym poziomie dojrzałości technologii często zadania bardziej dla jasnowidza niż dyrektora IT.

Jak zatem rozwiązać ten problem? Właściwie są tylko trzy możliwe scenariusze postępowania. Pierwszy, to zabezpieczyć się przed ryzykiem niedoboru mocy obliczeniowej, dokładając odpowiednią rezerwę do zamówienia. To rozwiązanie zabezpiecza przed nieprzewidzianymi wydatkami. Z drugiej strony powoduje niemal zawsze wystąpienie niepotrzebnych kosztów lub zamrożenie kapitału. Nie zabezpiecza nas również przed lawinowym wzrostem zapotrzebowania na zasoby IT choćby ze względu na mnogość realizowanych projektów i uruchamianie nowych procesów. Drugie wyjście wymaga podjęcia ryzyka i stworzenia prognozy wydatków zgodnie z przewidywaniami. W tej sytuacji planowane wydatki są mniejsze, rośnie jednak ryzyko wynikające np. z konieczności rozbudowy i przeprojektowania niedoszacowanego rozwiązania. Mogą wtedy wystąpić niespodzianki, takie jak brak miejsca w centrum przetwarzania danych czy kłopoty z uzasadnieniem nowych etatów.

Trzecie rozwiązanie to sprzedaż ryzyka dostawcy. To właśnie poszukiwania optymalnej recepty na dopasowanie wydatków do potrzeb i zminimalizowanie strat związanych z niedostatkami planowania stworzyły popyt na utility computing. Oczywiście ryzyko ma swoją cenę, ale podobnie jak w przypadku ubezpieczyciela rozkład wykorzystania mocy obliczeniowej przez różnych klientów powoduje, iż to właśnie podejście jest często atrakcyjną alternatywą dla pierwszych dwóch. Usługi utility computing osiągnęły już odpowiedni poziom dojrzałości i standaryzacji, który pozwala włączać je jako elementy standardowego portfolio bardziej dojrzałych dostawców. W przypadku HP usługi te określane są nazwami: Adaptive Infrastructure as a Service (obejmują one udostępnienie infrastruktury i opcjonalnie standardowych aplikacji w formie dzierżawy płatnej zależnie od ilości zaalokowanych zasobów) oraz Flexible Computing Services (oferujące klientom możliwość krótkoterminowej dzierżawy mocy obliczeniowej np. dla celów wykonania obliczeń inżynieryjnych dużej skali czy produkcji filmowej).

Sprzedaż mocy obliczeniowej w coraz większym stopniu zastępuje sprzedaż sprzętu. Dzieje się tak nie tylko ze względu na większą elastyczność tych rozwiązań i transfer ryzyka. Koncentracja ośrodków obliczeniowych oraz optymalizacja procesów zarządzania infrastrukturą u dużych dostawców powoduje, że kupowanie mocy obliczeniowej jako gotowego do użycia pakietu jest po prostu tańsze.