10 lat NetWorld i... sieci komputerowe

Komputer sieciowy: zawiedzione nadzieje

Rozprawy o komputerze sieciowym (NC) można było przeczytać na łamach prasy informatycznej już 10 lat temu. Jednak tak na dobre zaczęło się mówić o tej technologii dopiero na przełomie lat 1997/1998. Z chwilą powstania komputera sieciowego (nazywanego też chudym klientem) wydawało się, że oto po raz pierwszy opracowano technologię, która przełamie wreszcie hegemonię platformy Wintel (Windows plus Intel).

Jeden z koronnych argumentów wysuwanych przez zwolenników koncepcji komputera sieciowego brzmiał: komputer sieciowy jest tani. Chodzi tu zarówno o cenę produktu, jak i koszty związane z eksploatacją i utrzymaniem w ruchu tego rodzaju stanowiska pracy.

Po kilku latach doświadczeń okazało się, że technologia ta nie zdała jednak egzaminu i użytkownicy wcale nie mają zamiaru rezygnować z tradycyjnych pecetów. Dlatego producenci nie uruchamiają na szerszą skalę produkcji komputerów sieciowych, traktując ten segment rynku jako specyficzną niszę.

Klasyczny komputer sieciowy nie korzysta z usług systemu operacyjnego Windows, a pracuje na podstawie apletów Java, które są pobierane z serwera. Klient dysponuje okrojonym do minimum oprogramowaniem - wszystkie aplikacje rezydują w pamięci serwera. Głównym animatorem tej idei był, i pozostaje w pewnym stopniu do dzisiaj, Sun.

Microsoft zaproponował w odpowiedzi rozwiązanie noszące nazwę NetPC (opracowane wspólnie z Intelem). Był to właściwie ubogi krewny peceta. Zarówno NC, jak i NetPC ładują znakomitą większość niezbędnego im do pracy oprogramowania z serwera.

Dzisiaj niewiele jest organizacji, które zdecydowały się oprzeć frontową część swego systemu informatycznego na komputerach sieciowych. Prawie wszędzie królują pecety z Windows lub (rzadziej) Linuksem. Pomimo chwytliwego hasła firmy Sun "dopiero sieć to komputer", w tym przypadku rozwiązanie oparte w stu procentach na sieci nie zawojowało świata.

Pamięci coraz bardziej masowe

Początki Fibre Channel, czyli technologii będącej synonimem sieci SAN, sięgają pierwszych lat naszego pisma. Zaczęło się od tego, że trzej producenci systemów komputerowych (HP, IBM i Sun) stworzyli Fibre Channel Systems Initiative. Jej celem miało być opracowanie technologii sieciowej. Potem powstało stowarzyszenie FCA (Fibre Channel Association) i jedna z grup roboczych wchodzących w jego skład (Fibre Channel Loop Community) zaproponowała rozwiązanie, które znalazło zastosowanie w pierwszych sieciach SAN: pętle arbitrażowe FC.

O skali postępu w tej dziedzinie niech świadczy następujący fakt: pamięci masowe zainstalowane w 1993 r. przechowywały ok. 20 tys. terabajtów danych (1 TB to 1000 GB). Obecnie może to już być kilkadziesiąt milionów terabajtów.

Po latach dominacji dwóch technologii - SAS i NAS, czyli pamięci dołączanych bezpośrednio do serwerów i LAN - przyszedł czas na wydzielone sieci obsługujące wyłącznie pamięci masowe, czyli sieci SAN.

W 2002 r. pisaliśmy: Przez pierwsze lata sieci SAN stanowiły oddzielne wyspy, które nie były połączone żadnymi mostami i między którymi nie kursowały żadne promy. Były to odpowiedniki lokalnych sieci LAN pracujących tak, jakby nie istniał Internet ani połączenia WAN. Dzisiaj mamy już wiele nowych standardów, dzięki którym odległe sieci SAN można łączyć w jeden organizm i traktować je jako strukturę WAN.

Są to takie rozwiązania, jak FCIP (Fiber Channel over IP), IFCP (Internet Fibre Chanel Protocol) i iSCSI (przesyłanie danych i funkcji SCSI przez sieci IP). Jeśli dodamy do tego nowe rozwiązania w obszarze wirtualizowania danych, obraz pamięci masowych rysuje się zupełnie inaczej niż dziesięć lat temu.


TOP 200