Utility Computing, czyli przetwarzanie na żądanie

Na rynek IT z dużym rozmachem wkracza kolejna idea dotycząca sposobu organizacji procesu przetwarzania danych. Utility computing (zwane także computing on-demand, managing computing, a po polsku infrastrukturą dostępową na żądanie) pozwala na bardzo dokładne rozliczenie ilości przetworzonych danych. Umożliwia także wprowadzenie zmian w architekturze sieci poprzez kolejną formę wirtualizacji, dzięki którym w pełniejszym stopniu będzie możliwe wykorzystanie posiadanego sprzętu.

Na rynek IT z dużym rozmachem wkracza kolejna idea dotycząca sposobu organizacji procesu przetwarzania danych. Utility computing (zwane także computing on-demand, managing computing, a po polsku infrastrukturą dostępową na żądanie) pozwala na bardzo dokładne rozliczenie ilości przetworzonych danych. Umożliwia także wprowadzenie zmian w architekturze sieci poprzez kolejną formę wirtualizacji, dzięki którym w pełniejszym stopniu będzie możliwe wykorzystanie posiadanego sprzętu.

O tym, że informacja jest najważniejszą i najbardziej wartościową rzeczą w firmie, nie trzeba nikogo przekonywać. Priorytetem w każdej firmie powinien być łatwy, szybki i bezpieczny do niej dostęp. Łatwy, czyli możliwy do uzyskania z najbardziej przyjaznych użytkownikowi urządzeń (komputer, PDA, telefon komórkowy itp.) i bez większych ograniczeń dotyczących parametrów technicznych tych urządzeń. Szybki na tyle, aby pozyskane informacje mogły być we właściwy sposób we właściwym momencie wykorzystane. Bezpieczny, czyli dostępny tylko dla osób wybranych, wskazanych przez strukturę organizacji danych. Ponadto zarząd firmy na bieżąco powinien znać kwoty, które przeznacza na przetwarzanie danych. Niestety, w niewielu firmach sytuacja ta jest na tyle czysta i przejrzysta.

Idea utility computing jest poniekąd odpowiedzią na te potrzeby. Zakłada, że po wprowadzeniu pewnej wirtualizacji posiadanych w firmie zasobów będzie możliwe takie zarządzanie nimi, dzięki któremu zostanie znacznie zwiększona wydajność posiadanego sprzętu. Będzie też możliwe bardzo dokładne rozliczenie ilości przetworzonych informacji, analogicznie do przypadku mediów, takich jak energia, woda czy gaz. Po wdrożeniu utility computing dział IT (zarówno wewnątrz firmy, jak i ten, który może świadczyć jej usługi outsourcingu) staje się tradycyjnym usługodawcą, wystawiającym na koniec miesiąca rachunek na podobnej zasadzie jak wystawia go zakład energetyczny czy operator telekomunikacyjny.

Outsourcing w części lub całości

Utility computing jest możliwe do zrealizowania i wewnątrz, i na zewnątrz firmy. Outsourcing całego działu IT jest możliwy już nie tylko teoretycznie. Dziś praktycznie wszystko (sieci, moc obliczeniowa komputerów, pamięci masowe) może być przedmiotem outsourcingu. Dzięki technologii IP VPN firmy nie muszą już posiadać własnej zaawansowanej infrastruktury sieciowej. Popularność usług coraz częściej świadczonych przez centra obliczeniowe świadczy o tym, że obliczenia da się wykonywać na "wypożyczonym" sprzęcie, a przy okazji po dużo niższej, wyliczonej wg ilości przetworzonych danych, cenie. Nie obchodzi nas wówczas wewnętrzna infrastruktura u dostawców usług. Przetwarzanie ma być szybkie, ciągle dostępne i bezpieczne. Wszystkim, czego potrzebujemy po naszej stronie, jest szybkie łącze. Forma ta jest korzystna przede wszystkim dla małych firm, w których ilość przetwarzanych danych, np. w różnych dekadach miesiąca, znacznie się zmienia.

Są dwie możliwe filozofie outsourcingu rozwiązań teleinformatycznych. Pierwszą, chociaż jeszcze dość rzadko spotykaną, jest outsourcing całego działu IT, oparty w całości na utility computing. Drugą formą, korzystną w wielu przypadkach, może być outsourcing wybranych funkcji działu IT, które przysparzają największych problemów bądź to z racji braku kompetentnego w danej dziedzinie personelu, bądź pewnych braków w sprzęcie czy oprogramowaniu.

Wdrożenie idei utility computing jest możliwe także wewnątrz firmy. Wymaga jednak wielu dodatkowych zabiegów i nie zawsze jest opłacalne.

Moc pod kontrolą

Pomysł wirtualizacji zasobów powstał w wyniku obserwacji stopnia obciążenia serwerów w przedsiębiorstwach. Zauważono pewną sezonowość w obciążeniu każdego serwera. W innych dniach jest aktywny dział sprzedaży, w innych - dział zasobów ludzkich, a jeszcze w innych - księgowość. Po zsumowaniu obciążeń serwerów każdego dnia w miesiącu okazało się, że gdyby wszystkie "połączyć" w jedno, to uzyskano by ogromny zapas mocy obliczeniowej.

Utility computing to pewna forma wirtualizacji. Na podobnej zasadzie, jak wirtualizowane są pamięci masowe w sieciach SAN (Storage Area Network), wirtualizacji mogą podlegać serwery w firmie lub nawet ich komponenty - procesory czy pamięci. W tak skonfigurowanym środowisku jednym ruchem ręki poszczególnym wirtualnym serwerom można dokładać pamięci, mocy obliczeniowej czy pamięci masowej. Co więcej, proces ten może dziać się automatycznie wg zadanych parametrów. Nie są już konieczne modyfikacje sprzętu.

Utility computing powstało jako wynik obserwacji zmian relacji wewnątrz przedsiębiorstw - mówi Piotr Nogaś, architekt systemów w polskim biurze Veritas. - Idea ta w pewnych formach (i w pewnych blokach funkcjonalnych) jest stosowana w wielu firmach od dawna. Nacisk na optymalizację wykorzystania posiadanych zasobów informatycznych, choć nadal niewielki, zaczyna być skutecznie wymuszany przez programy redukcji kosztów. W Polsce pokutuje też niechęć, aby oddawać swoje dane na zewnątrz, np. do przeliczenia lub przechowania w centrach obliczeniowych dostawcy usług.

Celem nadrzędnym utility computing jest rozszerzenie środowiska IT o możliwość szybkiego wprowadzania dynamicznych zmian, niezależnie od tego, czy jest to środowisko, gdzie wszystkie serwery tworzą jeden wirtualny serwer, czy też poszczególne serwery pełnią różne funkcje i są na te potrzeby w odpowiedni sposób konfigurowane. Zresztą najważniejszą cechą utility computing jest możliwość zdefiniowania, po co to robimy - świadczymy usługi serwisowe firmie, zwiększamy jej wydajność albo dostarczamy dodatkową moc na potrzeby konkretnej wykonywanej czynności.

Jeżeli chcemy osiągnąć dużą elastyczność rozwiązania utility computing, to musimy ją zagwarantować nie tylko w komputerach, ale w całym środowisku IT - podkreśla Piotr Owerski, Senior Consultant w Computer Associates. - Dotyczy to zarówno uruchamianych aplikacji, jak i infrastruktury sieciowej, pamięci masowych i wszystkich innych elementów, które mają podlegać wirtualizacji. Chociaż jest to rozwiązanie software'owe, to może okazać się konieczne kupno dodatkowego sprzętu, aby uzupełnić pewien brak. Statystycznie jednak liczba posiadanego przez firmy sprzętu jest najczęściej zupełnie wystarczająca.

Dodatkowym elementem utility computing, który firmy bardzo cenią, jest wymuszenie standaryzacji. Firma musi określić, jakie osoby, do jakich danych i w jakim czasie powinny mieć dostęp. Utility computing określa także metody zarządzania stacjami roboczymi, aby dział IT mógł rozliczyć się z zarządem z podpisanych umów SLA (Service Level Agreement).

Wiedzieć za ile

Aby w pełni wykorzystać zalety utility computing, musimy mieć możliwość rozliczenia wykorzystanych zasobów. Funkcja ta będzie przydatna, gdy formalnie dział informatyki działa jako dostawca usług dla swojej firmy jako klienta. Poszczególne departamenty płacą działowi IT za konkretną ilość wykorzystanej mocy obliczeniowej lub przetworzonych danych.

Utility computing daje firmom możliwość zmiany sposobu wydawania pieniędzy i rozłożenia kosztów operacyjnych - mówi Piotr Nogaś z Veritasu. - Odejść od predefiniowanego odgórnie budżetu dla informatyki, który zobowiązuje ją do spełnienia wszystkich wymagań biznesowych (często bliżej nieokreślonych), jest wypierany przez wewnętrzne relacje klient-dostawca z departamentami biznesowymi przedsiębiorstwa. Relacje, w których to departament biznesowy dysponuje pieniędzmi, sprawiają, że są one efektywniej wydawane. Informatyk staje się po prostu dostawcą wewnątrz firmy, który przychodzi do poszczególnych departamentów, mówiąc: "Oto lista usług, które mogę ci świadczyć wg następującego cennika". Sparametryzowana jakość usług, zawarta w Service Level Agreement, umożliwia dynamiczne przyporządkowanie kosztów w zależności od zakontraktowanej dostępności, odporności na katastrofy, wydajności itp. Dział IT musi mieć narzędzia umożliwiające rozliczenie zakontraktowanych usług, określenie własnych kosztów i stopnia wykorzystania zasobów przez każdy z departamentów, którym na koniec okresu rozliczeniowego wystawia odpowiedni rachunek.

Utility, nie grid

Utility computing często jest mylone z techniką grid computing. Grid charakteryzuje się głównie tym, że poszczególne komputery (z reguły stacje robocze) dostają do przeliczenia małe pakiety z danymi. Po wykonaniu pracy zwracają do serwera wyniki pracy. Utility computing z reguły operuje na bazach danych, których podzielenie na małe pakiety do przeliczenia byłoby trudne. Fakt, że poszczególne stacje robocze oferują moc obliczeniową równą serwerom sprzed paru lat, niewiele zmienia, bo oprócz mocy obliczeniowej komputery powinny gwarantować też odpowiednie zabezpieczenia, których brak stacjom roboczym.

Tadeusz Hupało, Product Manager SAP NetWeaver, tak podsumowuje nowe technologie: - Serwery blade, techniki grid i utility computing oraz inicjatywy różnych producentów sprzętu opierają się na interesujących założeniach i powoli uzyskują praktyczną formę zmieniającą odrębne serwery i systemy składowania danych w skoordynowane sieci dostarczające usług i zasobów. To perspektywa na wiele lat, obecnie może bardziej nagłośniona z powodu skutków przeinwestowania w czasach internetowego boomu i przyjaźnie odbierana w kręgach (nie)przydzielających środki na inwestycje IT.

Po pierwsze, dla większych

Samo utility computing to dość stara idea, która wraca w nowej formie, dostępnej także dla małych, ale rosnących wciąż firm. Mają one możliwość ograniczenia liczby posiadanego sprzętu, bardziej efektywnego zarządzania nim i infrastrukturą sieciową itd. Mają też dostęp do tych samych aplikacji, danych i usług internetowych. Ale zamiast kupować sprzęt i oprogramowanie, płacą tylko za wykorzystanie mocy obliczeniowej i pamięci masowej.

Producenci nie mają jednak wyrobionej opinii, jaka jest dolna granica opłacalności wejścia w rozwiązanie utility computing. Zbyt mało jest też na razie wdrożeń, aby taką informację czerpać z rynku.

Piotr Owerski wątpi, czy ta idea znajdzie sobie miejsce w najmniejszych firmach: - Im się to po prostu nie opłaci. Koszty wdrożenia takiego rozwiązania przy małej liczbie sprzętu będą wyższe niż koszty zakupienia sprzętu dodatkowego. Być może potrzeba trochę czasu, aby oprogramowanie to staniało, a jego funkcjonalność stała się także bardziej dostępna w mniejszych rozwiązaniach.

Na pewno idea utility computing znajdzie miejsce w firmach, w których liczba komputerów i serwerów wynosi kilkaset i więcej. Tam zwrot z inwestycji powinien być bardzo szybki. Nad takim rozwiązaniem powinny szczególnie zastanowić się firmy, które planują kupno kolejnych kilkuset komputerów. Rzadko biorą one pod uwagę koszt związany z taką operacją: logistyka, koszt personelu instalującego i wdrażającego czy też po prostu powierzchnia biurowa, biurka, krzesła i wszystko, co związane z przygotowaniem kolejnego stanowiska pracy. Koszty te mogą wynieść drugie tyle co komputery.

Techniczne możliwości wdrożenia utility computing ma wiele firm, bowiem dysponują one przystosowanym do tego celu oprogramowaniem i odpowiednimi zasobami sprzętowymi - twierdzi Piotr Nogaś. - Jednak często bronią się przed filozofią wewnętrznych rozliczeń. Zasada wolnej konkurencji wewnątrz firmy jest dziś realizowana w dużych koncernach tworzących spółki zależne, dostarczające niezbędne serwisy, w tym informatyczne. Spółki takie zwykle mają priorytet w zakresie świadczeniu usług dla swojej spółki-matki. Ale gdy taka spółka-córka oceni swoje usługi zbyt wysoko, to korporacja zawsze może zwrócić się w kierunku rynku i poszukać lepszej, tańszej oferty i jest to najzdrowsza z możliwych relacja klient-dostawca niewykluczająca pertraktacji cenowych. Dla szefa firmy lub departamentu niezmiernie wartościową rzeczą jest rachunek na koniec miesiąca, w którym widzi, ile zasobów wykorzystał, wie, za ile musi zapłacić i gdzie szukać ewentualnych oszczędności. Wprowadzenie utility computing wiąże się często ze zmianami organizacyjnymi w firmie, których nie jest w stanie przeprowadzić szef działu informatyki - muszą się nimi zająć prezes i rada nadzorcza.

Utility computing może być wdrożone w różnym stopniu praktycznie w większości średnich i dużych firm. Zarząd firmy i administratorzy powinni znaleźć tylko odpowiedzi na kilka pytań: czy jesteśmy w stanie korzystać z outsourcingu usług sieciowych, czy będziemy w stanie tak przetworzyć strategię sieciową, aby spełniała wymagania utility computing i jak bardzo zautomatyzowanej technologii możemy używać, aby było to bezpieczne?

Aby można było bez problemu wdrożyć tę koncepcję, trzy segmenty infrastruktury powinny być dostępne dla procesów biznesowych i użytkowników: moc obliczeniowa, pamięć masowa i infrastruktura sieciowa. Każdy z tych elementów musi mieć określone właściwości, takie jak dynamiczna alokacja zasobów, wirtualizacja, zarządzanie politykami bezpieczeństwa, synchronizacja przepływu danych i zestandaryzowane, oparte na XML usługi webowe.

Także dla małych?

Wzrost obrotów firmy na pewno jest ważnym wydarzeniem dla działu finansowego, ale wielokrotnie też przekleństwem dla działu IT. Wiele małych firm przeżyło ostatnie trudne czasy tylko dzięki zmniejszeniu kadry działu IT i nierozwijaniu go. Dziś mamy więc małe działy, stare oprogramowanie i niewystarczającą infrastrukturę sieciową. W przeszłości małe firmy miały tylko dwa wyjścia na rozwiązanie tych problemów: zatrudnić dodatkowe osoby lub nie aktualizować technologii. Outsourcing był możliwy tylko dla dużych firm. Na szczęście, koszty outsourcingu znacznie spadły, dzięki czemu ze zdalnego przetwarzania mogą korzystać już nawet mniejsze firmy. Mogą mieć dowolne usługi IT, o których do niedawna mogły tylko marzyć.

Piotr Nogaś uważa, że na utility computing mogą sobie pozwolić nawet niektóre małe firmy: - Minimalna konfiguracja, gdzie można mówić o utility computing, to współdzielona macierz, kilka serwerów intelowskich i oprogramowanie, które umożliwia automatyczną określoną polityką alokację serwerów do aplikacji we właściwym czasie, trybie i konfiguracji. Niewiele jest firm, które posiadają mniej niż kilka serwerów - a już dla takich środowisk (nawet pod kontrolą Windows lub Linuksa) warto zastanowić się nad implementacją utility computing.

Do każdego z oferowanych na rynku programów do tworzenia rozwiązań utility computing jest przygotowana lista kompatybilności. Ale w zależności od tego, na jakim poziomie wdrażamy utility computing, różne są wymogi. Udostępniając macierz, musimy znać jej producenta i model. Wirtualizując serwery, musimy określić, jakie systemy operacyjne będą wykorzystywane. Decydując się na zarządzanie wydajnością bazy danych, także musimy określić jej producenta i wersję.

Rynek rozwiązań utility computing

Oprogramowanie do realizowania idei utility computing zaprezentowało już wielu producentów. Chociaż nie ma jeszcze ujednoliconego nazewnictwa, a i sami producenci różnie pozycjonują swoje programy, można powiedzieć, że pomysł przyjął się na rynku. Na razie oprogramowanie to nie jest oferowane w postaci "wprost z pudełka". Całe rozwiązanie składa się z kilku, ściśle zintegrowanych ze sobą modułów programowych, które są dobierane w zależności od potrzeb. Jego instalacja to wciąż zadanie dla grupy wykwalifikowanych osób, najlepiej z doświadczeniem. Przed instalacją zaś powinny zostać przeprowadzone szczegółowe analizy i testy wydajnościowe dotychczas istniejących rozwiązań.

Według IDC wartość rynku utility computing wyniesie w 2007 r. 4,6 mld USD w porównaniu z 1 mld USD w roku 2003. Zdaniem tej organizacji, mimo że z zalet utility computing skorzystają na razie głównie największe firmy, to właśnie firmy średnie wymuszą na producentach sprzętu i oprogramowania stworzenie łatwych w instalacji rozwiązań, także dla "średniaków".

Z ankiety przeprowadzonej przez firmę Evans Data Corp. wynika, że jedna na pięć firm operujących na dużych bazach danych jest zainteresowana wdrożeniem techniki utility computing. 12% respondentów zamierza wdrożyć tę technikę w ciągu najbliższego roku, kolejnych 9% - w ciągu następnych dwóch lat.

Rozwiązania utility computing są w ofercie firm zarówno związanych z rynkiem oprogramowania (Citrix, Computer Associates, Microsoft, Oracle, SAP, Veritas), jak i produkujących sprzęt (HP, IBM, Sun). Wśród tych firm wyłącznie na rozwiązania utility computing postawił Citrix (producent nazywa je rozwiązaniami infrastruktury dostępowej do zasobów korporacyjnych na żądanie), nie oferując innych produktów.

Oczywiste jest, że w zależności od tego, czym ogólnie dana firma się zajmuje, w taki sposób promuje rozwiązania utility computing. W przypadku producentów sprzętu wspierane są przede wszystkim rozwiązania własne. Firmy oferujące oprogramowanie przygotowały rozwiązania na tyle uniwersalne, aby pokryły bardzo dużą powierzchnię rynku serwerów i baz danych.

W firmie SAP idea utility computing będzie realizowana w połączeniu z techniką SAP NetWeaver. Zagadnienie utility computing również przekłada się na architekturę nowoczesnych aplikacji budowanych wg standardów Java, XML i usług sieciowych, także w naszych produktach - podkreśla Tadeusz Hupało z SAP-u. - Zanim jednak użytkownicy otrzymają samoadaptujące się uniwersalne rozwiązania, gotowe do wspierania biznesu - jest jeszcze sporo do zrobienia. W SAP to wymagania biznesowe aplikacji sterują technologią. Dostrzegamy zatem realne problemy i wyzwania integracji środowisk informatycznych naszych klientów, wspierania procesów biznesowych obejmujących różnorodne systemy. Otwarta platforma aplikacyjna i integracyjna SAP NetWeaver oraz koncepcja architektury usług dla przedsiębiorstw (Enterprise Services Architecture) służą nam do dostarczania rozwiązań opartych na usługach sieciowych i standardach internetowych. A stąd tylko krok do wirtualizacji zasobów, globalnego rozwiązania zagadnień bezpieczeństwa, specyfikacji i standaryzacji usług dostarczanych przez różnych dostawców.

Oracle w ostatnim czasie wprowadził do oferty nowe wersje oprogramowania - Oracle Database 10g i Oracle Application Server 10g. Oba te produkty oferują podstawowe elementy konstrukcyjne umożliwiające wirtualizację korporacyjnych zasobów.

Plany dotyczące utility computing powoli realizuje też wielka trójka producentów sprzętu: HP, IBM i Sun. Firmy rozpoczęły modyfikacje swoich kluczowych produktów.

Sun zaktualizuje Sun Grid Engine, a także zarządzanie usługami. Będzie też zwiększona integracja pomiędzy systemem Solaris a oprogramowaniem zarządzającym N1. W Solaris 10 znajdzie się funkcja "stref", zabezpieczająca poszczególne uruchomione aplikacje przed niewłaściwymi interakcjami. Powstanie nowa wersja pakietu dla programistów, zaktualizowana o funkcje utility computing.

IBM zapowiedział stworzenie software'owych centrów technicznych (podobnie jak dla WebSphere), dzięki którym użytkownicy i programiści będą mogli testować swoje produkty, zarówno we współpracy z programami IBM On Demand, jak i oddzielnie. IBM zmodernizuje Tivoli Intelligent Orchestrator, w którym znajdą się usługi umożliwiające lepsze zautomatyzowanie dużych centrów danych. W odpowiednie funkcje zostanie wzbogacony DB2.

Także HP rozwija swoją koncepcję Adaptive Enterprise. Korporacja przedstawiła plany przejęcia firm Consera Software i Novadigm. Zakupione technologie będą wdrożone w pakiet OpenView, co pozwoli HP dołączyć do rynku rozwiązań utility computing. Rynkowa wartość firmy Novadigm wynosi ok. 121 mln USD; wartość prywatnej firmy Consera nie została podana do publicznej wiadomości.

Technologia firmy Novadigm pozwoli oprogramowaniu OpenView tworzyć i integrować nowe konfiguracje, aplikacje, łatki do serwerów, stacji roboczych, klientów mobilnych i urządzeń sieciowych. Możliwości te ułatwią zarządzanie zasobami, co jest podstawą idei utility computing. Do tej pory HP miał w tym zakresie umowy partnerskie z firmami Novadigm i Altiris. Umowa z Altiris ma być utrzymana.

Są to już kolejne przejęcia HP w ciągu ostatniego pół roku. We wrześniu 2003 r. HP przejął Talking Blocks (zarządzanie usługami webowymi) oraz technologię Select Access od Baltimore Technologies (identity management). W listopadzie z kolei przejął firmę Persist Technologies.

W styczniu Veritas za 59 mln USD przejął firmę Ejasent, dostawcę technologii wirtualizacji aplikacji na potrzeby usług udostępniania mocy obliczeniowej i twórcę oprogramowania UpScale. Umożliwia ono przenoszenie aplikacji z jednego serwera na inny bez zakłócania lub przerywania jej działania. Oprogramowanie UpScale tworzy migawkową kopię aplikacji i jej stanu, zabezpieczając wszystkie bieżące ustawienia i dane, a następnie przenosi ją na inny serwer w czasie bliskim do rzeczywistego. Drugi ważny program w portfolio Ejasent to MicroMeasure, który umożliwia pomiary i rozliczanie wykorzystania przez poszczególnych użytkowników oraz działy zasobów centrum przetwarzania danych, w tym serwerów, pamięci masowej i transakcji aplikacji. Veritas planuje włączenie oprogramowania MicroMeasure do pakietu Veritas CommandCentral Service. Oprogramowanie UpScale będzie początkowo dostępne w wersji dla systemu Solaris, natomiast wersja dla systemu Linux zostanie wprowadzona na początku 2005 r. Oprogramowanie MicroMeasure będzie dostępne w wersjach dla systemów Solaris, Windows, Linux i HP-UX.

Największym chyba przejęciem w branży utility computing było kupno przez EMC firmy VMware za 625 mln USD, specjalizującej się w tworzeniu oprogramowania do wirtualnego przetwarzania danych na platformach Intela. Mimo zmiany właściciela, VMware zachowa swoją nazwę, będą także rozwijane już rozpoczęte projekty.

Nawet Apple stworzył rozwiązanie utility computing. Oprogramowanie xGrid pomaga zbudować pewną pulę mocy obliczeniowej dostępną z serwerów i stacji roboczych w sieci.

Zauważyć jednak trzeba, że do rynku utility computing producenci sprzętu komputerowego podchodzą z pewną dozą nieufności. - Wcale im się nie dziwię - twierdzi Jarosław Siemiński z Oracle'a. - Dla producentów sprzętu utility computing może być niebezpiecznym kierunkiem. Umożliwia w pełni wykorzystanie sprzętu, który już posiadamy. Być może nie będzie konieczne kupowanie np. 16-procesorowych serwerów, na których obecnie najwięcej się zarabia.

Koszt i licencjonowanie

Żaden z producentów nie ma jednolitego cennika na oprogramowanie służące do tworzenia rozwiązań utility computing. Wszyscy mówią, że sprawa jest na tyle skomplikowana, iż wykonaniem odpowiednich obliczeń powinny się zająć wyspecjalizowani i odpowiednio wyszkoleni handlowcy (w dziale handlowym producenta bądź u jego partnerów biznesowych). W grę wchodzi nie tylko liczba licencji na poszczególne stanowiska, ale także dodatkowe moduły, których instalacja może się okazać niezbędna, moc obliczeniowa, pojemność pamięci masowych, no i oczywiście rabaty z tytułu rozpoczęcia długotrwałej i owocnej współpracy.

Różne są formy licencjonowania tego rozwiązania. U jednych są to tradycyjne licencje na z góry określony czas, u innych zaś licencje na pewne moduły (używane tylko kilka razy w miesiącu bądź roku) można kupować nawet na poszczególne dni. Gdy np. wykonujemy nowe wdrożenie lub przeprowadzamy dodatkowe prace, możemy dokupić dodatkowe licencje, a po wykonaniu zadania, gdy środowisko się ustabilizuje, nie będziemy już ich potrzebować.

Bardzo dobrze, że parametry TCO i ROI są w centrum uwagi każdego projektu - zauważa Piotr Nogaś. - Solidne ich określenie wykazuje celowość wdrożenia rozwiązań utility computing. Bardzo często okazuje się, że rozwiązania Aplication Performance Management redukują lub opóźniają zakup kolejnych serwerów nawet w czteroletnim okresie inwestycyjnym, bo po usunięciu tzw. wąskich gardeł aplikacja działa zgodnie z zakontraktowanym SLA na posiadanym już sprzęcie. Według naszych wyliczeń firmy mogą oczekiwać zwrotu z inwestycji w ciągu 3-6 miesięcy.

Wyliczając wartość parametru ROI, należy pamiętać także o dodatkowych funkcjach, które będzie pełniło rozwiązanie utility computing. W wielu przypadkach automatycznie uzyskamy namiastkę rozwiązania wysokiej dostępności. Zostaną zoptymalizowane świadczone przez dział IT usługi, dzięki czemu powinna wzrosnąć wydajność. Oszczędzamy też na pracy ludzi, za których czynności wykonują automatycznie konfigurujące rozwiązanie systemy. Z każdych wyliczeń bowiem wynika, że koszt zakupu serwera jest o wiele mniejszy niż koszt związany z pracą obsługującego go później człowieka.

Cokolwiek by się działo, zarządy firm muszą do problemu inwestycji w działy IT podejść bardziej analitycznie. - Wiele usług na rynku zanika: szewc, zegarmistrz - zauważa Piotr Owerski. - Dziś taniej jest kupić nowe buty czy nowy zegarek, niż naprawiać stare. Tak samo w działach IT. Często taniej jest kupić rozwiązanie do automatyzacji pewnych prac, niż płacić personelowi za wykonywanie tych prac ręcznie.

Rozwój techniki utility computing spowodował, że coraz częściej administratorzy sieci zastanawiają się, w jakim stopniu zaufać automatyzacji procesów. W świecie dynamicznego przydzielania zasobów i wirtualizacji decyzje będą musiały być podejmowane w czasie rzeczywistym. Automatycznie będą musiały się odbywać naprawy ewentualnych błędów decyzyjnych, odzyskiwanie utraconych danych oraz alokacja czy rekonfiguracja zasobów.

Nadeszły czasy, gdy komputery będą zarządzać komputerami, a człowiek będzie mógł tylko temu procesowi się przyglądać, ewentualnie korygować, ale z coraz mniejszym wpływem na jego szczegółowe planowanie. Być może dojdzie do tego, że rozwiązanie to będzie samo podejmowało nawet krytyczne decyzje bez wiedzy człowieka czy jego nadzoru. Analitycy twierdzą jednak, że nie dojdzie do tego wcześniej niż za 10 lat. Oczywiście, nie oznacza to, że firmy powinny odłożyć swoje plany na półkę. Już teraz jest wiele możliwości, aby konsolidować, standaryzować i automatyzować centra danych, wyciągać wnioski z tych przekształceń i zaczynać czerpać korzyści.

O tym, jak będzie się rozwijać idea utility computing, zadecyduje rynek. Okaże się, czy pozostanie ona rozwiązaniem dla informatycznych elit, zejdzie także do małych i średnich firm, a może po prostu w którymś momencie pęknie jak bańka mydlana. A równie dobrze może się okazać, że już wkrótce nawet posiadacze dwóch czy trzech komputerów będą mogli "pożyczać" sobie nawzajem ich zasoby - pamięci czy moc obliczeniową.


TOP 200