Wirtualny desktop

Technologie wirtualizacji komputerów PC wciąż cieszą się względnie małą popularnością, a firmy podchodzą z dużą rezerwą do możliwości ich wykorzystania.

Technologie wirtualizacji komputerów PC wciąż cieszą się względnie małą popularnością, a firmy podchodzą z dużą rezerwą do możliwości ich wykorzystania.

Według wyników ankiety przeprowadzonej przez amerykańskie pismo CIO, tylko 25% firm wykorzystuje w jakimś stopniu wirtualizację komputerów desktop, a 37% deklaruje, że w ogóle nie jest zainteresowane takimi rozwiązaniami. Obiektywnie trzeba przyznać, że mimo wielu dość oczywistych zalet, technologie wirtualizacji PC mają równie oczywiste wady. Choć największe bariery ich zastosowań leżą jednak w sferze psychologicznej. Użytkownicy przyzwyczaili się do tego, że mają prawie pełną kontrolę nad swoim środowiskiem pracy, a więc i komputerem PC, z której niechętnie chcą zrezygnować.

Wirtualny zamiast rzeczywistego

860 USD

to koszt zainstalowania jednego wirtualnego komputera PC.

Określenie "wirtualizacja komputerów PC" (desktop virtualization) oznacza centralizację aplikacji standardowo uruchamianych w komputerach PC i przeniesienie ich do centrum danych. Aby z nich skorzystać, użytkownik łączy się z serwerem, który uruchamia żądaną aplikację i dostarcza jej interfejs do zdalnego komputera wykorzystując usługi terminalowe udostępniane przez system Windows lub oprogramowanie Citrix. W wypadku VMware Virtual Desktop Infrastructure (VDI) aplikacje są uruchamiane na serwerze VMware obsługującym odpowiedni zestaw maszyn wirtualnych Windows.

Z punktu widzenia użytkownika aplikacje działają tak samo, jak gdyby były uruchamiane lokalnie, ale uzyskanie dostępu do nich wymaga uruchomienia przeglądarki. Oznacza to, że urządzeniem końcowym może być każdy komputer, który ma możliwość uruchomienia i obsługi przeglądarki internetowej. Może to być zarówno terminal, jak i standardowy PC. Niezależnie od tego jak - i przy wykorzystaniu jakiego oprogramowania - taki system zostanie zbudowany, jego zalety są te same - wirtualne PC są łatwiejsze do zarządzania, aktualizacji, instalacji aplikacji oraz zapewniania ich bezpieczeństwa w porównaniu do klasycznych rozwiązań opartych na komputerach PC.

Forrester Research ocenia, że średni koszt zainstalowania jednego wirtualnego stanowiska PC wynosi ok. 860 USD. Jest to więc niewątpliwie mniej niż zakup i zainstalowanie komputera PC, choć szacunek ten nie uwzględnia kosztów ewentualnej modernizacji sieci, która może być niezbędna dla zapewnienia odpowiedniej przepustowości umożliwiającej efektywną obsługę wirtualnych PC. Drugą ważną zaletą takiego systemu jest to, że jego administrator może się przestać martwić, że w sieci pojawi się komputer zawierający złośliwe oprogramowanie, którym zaraża inne maszyny lub też umożliwia nieuprawniony dostęp do danych. W wypadku wirtualnego PC, system i dane znajdują się na serwerze i dostęp do nich jest chroniony centralnie, więc poziom ich bezpieczeństwa zależy od zabezpieczeń serwera, którymi łatwiej zarządzać, aktualizować i kontrolować.

Bariery zastosowań

Mimo wymienionych zalet, brak popularności technologii wirtualizacji PC związany jest z krytycznym podejściem do wirtualizacji, które wynika z przyzwyczajeń i niechęci do nowych rozwiązań. Ten pogląd ma jednak realne uzasadnienie. Technologia ta bowiem słabo nadaje się do strumieniowego przesyłania grafiki lub wideo, chyba że użytkownik zainwestuje w kosztowną rozbudowę sieci. To na pewno istotnie ogranicza atrakcyjność takich rozwiązań, zwłaszcza w firmach korzystających z zaawansowanych aplikacji graficznych.

Oprócz tego niektóre aplikacje źle pracują w systemie wykorzystującym wirtualne PC, a nawet zdarza się, że warunki licencji zabraniają ich uruchamiania w takim systemie (np. oprogramowanie Bloomberg). Można też mieć wątpliwości, co do efektywności wykorzystania zasobów. W klasycznych PC użytkownik jest w naturalny sposób ograniczony przez moc procesora i dostępną pojemność pamięci masowej. W wypadku wirtualnego PC zasoby te są praktycznie nieograniczone, takie przynajmniej powstaje przekonanie u użytkownika, co może prowadzić do ich nieuzasadnionego marnotrawienia. Dodatkowo wciąż brakuje narzędzi umożliwiających efektywną kontrolę i zarządzanie pamięcią i mocą przetwarzania udostępnianą pojedynczym użytkownikom.

Jak wynika z praktycznych doświadczeń związanych z wdrażaniem systemów do wirtualizacji PC, najwięcej wątpliwości wiąże się jednak z koniecznością przebudowy infrastruktury IT i obawą, czy zwrot z tej inwestycji będzie zgodny z zakładanym. Menedżerowie często nie są też przekonani, czy zależność systemu od dostępności połączeń sieciowych nie wpłynie negatywnie na wydajność pracy, a jednocześnie trzeba uwzględnić potencjalny opór ze strony użytkowników.

Sukces wdrożenia technologii wirtualizacji PC zależy od dobrej analizy infrastruktury sieciowej i zapewnienia nie tylko odpowiedniej przepustowości łączy, ale również dostatecznie małych opóźnień w transmisji pakietów. Krytycznym elementem są też pamięci masowe, których wydajność powinna być wyższa niż w klasycznych systemach. "Nawet przy sieci o wysokiej przepustowości zbyt mała wydajność pamięci może istotnie zwiększyć czas dostarczania aplikacji z serwera do terminala i negatywnie wpłynąć na wydajność pracy" - mówi Florent Soland, dyrektor firmy Natixis, która wdrożyła system wirtualnych PC.

Biorąc pod uwagę wszystkie te elementy - wydajna pamięć SAN, nowe serwery, oprogramowanie do wirtualizacji, modernizacja sieci i zakup terminali, może się okazać, że wdrożenie takiego systemu jest bardziej kosztowne niż zastosowanie tradycyjnej infrastruktury i to mimo optymistycznych ocen analityków. Negatywny wpływ na ROI ma też dość powszechna polityka częściowej transformacji do infrastruktury wirtualnych PC. W takim wypadku firma musi obsługiwać dwa systemy: klasyczny i zwirtualizowany, co istotnie zwiększa koszty ich utrzymania. Trudno tu jednak zalecić szybką i kompleksową wirtualizację, bo wynika to najczęściej z warunków licencjonowania lub braku możliwości uruchamiania niektórych aplikacji w takim systemie.

Desktop virtualization

Zalety:

  • niższy koszt stworzenia nowego stanowiska,
  • łatwiejsza administracja i brak zagrożeń "przynoszonych" do firmowej sieci przez użytkowników,
  • lepsza kontrola nad dostępem do danych firmowych.

Wady:

  • opór użytkowników, którzy przyzwyczaili się do tego, że mają prawie pełną kontrolę nad swoim środowiskiem pracy,
  • potencjalna konieczność rozbudowy przepustowości sieci,
  • ograniczenia licencyjne,
  • brak narzędzi do kontroli i zarządzania pamięcią i mocą przetwarzania udostępnianą pojedynczym użytkownikom.
W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200