Gorące technologie 2008

Zapory ogniowe i systemy zapobiegania wtargnięciom (IPS) to podstawowe elementy polityki bezpieczeństwa, ale nieskuteczne w sytuacji, kiedy zostanie skradziony laptop. Nie pomagają, gdy pracownik przesyła poufne informacje pocztą elektroniczną albo nieumyślnie "wpuszcza" w internet tajemnice firmowe, wykorzystując technologie Web 2.0, takie jak blogi czy mashup. Nie chronią również przed świadomymi kradzieżami danych w wykonaniu sfrustrowanych pracowników.

Produkty DLP kontrolują treści transmitowane przez sieci i wymuszają reguły polityki zapobiegające wyprowadzaniu poufnych danych poza sieć przedsiębiorstwa.

Większość tego typu rozwiązań koncentruje się na poczcie elektronicznej, ponieważ jest ona postrzegana jako największy kanał wycieku danych. Według badań przeprowadzonych przez Proofpoint, ok. 20% wychodzącej poczty elektronicznej zawiera treści stwarzające ryzyko prawne, finansowe lub naruszenia obwiązujących reguł ochrony danych.

Produkty DLP zajmują się także "danymi w ruchu" (np. transmitowanymi protokołem FTP), "danymi w stanie spoczynku" i "danymi przemieszczanymi" do podręcznych urządzeń mobilnych.

Według danych Ponemon Institute, naruszenia bezpieczeństwa danych w roku 2007 kosztowały firmy 197 USD za rekord. A średni koszt tych naruszeń wyniósł 6,3 mln USD w porównaniu z 4,8 mln USD w 2006 r. Są to jednak tylko koszty bezpośrednie. Szeroko nagłośnione naruszenia danych to również utrata reputacji. Dzisiaj sprawą zasadniczą nie jest haker niszczący zawartość witryny webowej czy zatykający serwery atakami DDoS. Nie są to też ataki wirusów czy robaków. Najgorsza jest wiadomość w mediach o tym, że z firmy wyciekła lista z danymi osobowymi pracowników lub klientów.

Zielone IT

Trudno o bardziej gorący temat niż globalne ocieplenie. Zagadnienie ograniczenia emisji dwutlenku węgla nie ominęło również świata IT, który zużywa 2% globalnej energii. Czy przy tej - wydaje się - małej liczbie, ma sens podejmowanie działań proekologicznych? Oczywiście ma i to nie tylko ze względu na ratowanie świata, ale także zwykły rachunek ekonomiczny.

Co do płynącego zagrożenia nie ma już wątpliwości - zostało ono udowodnione naukowo. Osiągnięcie celu polegającego na tym, że energia ze źródeł odnawialnych stanie się tańsza od węgla, będzie niezwykle istotnym krokiem na drodze do redukcji emisji gazów cieplarnianych. Zdaniem Simona Mingaya, analityka firmy Gartner, na wspomniane 2% składa się wiele czynników. Aż 39% tej wartości emisji CO2 stanowią komputery PC i monitory, za nimi są serwery (23%), systemy telekomunikacji stacjonarnej (15%) oraz mobilnej (9%). Systemy sieciowe i komunikacji lokalnej w firmach to 7% emisji CO2, a 6% - drukarki.

Kwestiami poboru energii przez centra danych zajęło się też wiele firm, szczególnie tych dostarczających systemy zarządzania energią i chłodzeniem. Badanie przeprowadzone przez Emerson Network Power pokazuje, że w centrach danych aż 50% poboru energii elektrycznej idzie na chłodzenie, 26% na zasilanie serwerów i pamięci masowych, 11% na systemy komunikacyjne, 10% na sprzęt zarządzający zasilaniem i 3% na oświetlenie.

Oba badania pokazują, że ogromny problem stanowi chłodzenie. Najlepsze praktyki dla chłodzenia centrów danych wskazują scenariusz, gdzie zimne powietrze płynie od dołu do góry. Jeśli nie możemy pozwolić sobie na przebudowanie centrum danych i wyposażenie go w podniesioną podłogę i nowe systemy wentylacyjne, powinno pomóc utrzymanie stałej temperatury pomiędzy 21 - 23°. Nikt nie twierdzi, że w centrum danych musi być zimno jak w lodówce.

Z badań IDC wynika, że już 43% szefów IT bierze ekologiczne czynniki pod uwagę przy doborze odpowiednich rozwiązań dla swoich centrów danych. 80% zauważa, że ekologiczne aspekty mają coraz większe znaczenie dla ich organizacji.

Technologia iSCSI

Gorące technologie 2008

Wzrost sprzedaży urządzeń bezpieczeństwawedług IDC (w mln USD)

Technologia iSCSI staje się coraz popularniejsza, wypierając dotychczas stosowaną Fibre Channel. Czemu tak się dzieje? Przyczyn jest kilka. Podstawowa to fakt, że iSCSI działa w zwykłej sieci Ethernet, co oznacza, że nie trzeba przygotowywać oddzielnej sieci Fibre Channel tylko dla pamięci masowych. Nie potrzeba też specjalnych kontrolerów do serwerów ani przełączników. Podobnie jak wykwalifikowanej kadry administratorów.

Oczywiście, Fibre Channel działa z szybkością 4 Gb/s (niedługo 8 Gb/s), podczas gdy sieci iSCSI SAN przez najbliższy czas będą działały w infrastrukturze o szybkości 1 Gb/s. Natomiast wiele zmian może wprowadzić spopularyzowanie się technologii 10 Gb/s, która nie dość, że jest prostsza w zarządzaniu od Fibre Channel, to jeszcze szybsza - nawet od wersji 8 Gb/s. Przeprowadzono już testy, które pokazują, że iSCSI świetnie sobie radzi w miedzianych sieciach 10 Gb/s.

Czy zatem mają rację niektórzy obserwatorzy branży, którzy twierdzą, że z powodu iSCSI dni Fibre Channel są policzone? Raczej nie. W centrach danych istnieje ogromna liczba urządzeń w standardzie Fibre Channel. Firmy, które zainwestowały w tę technologię, z pewnością nie zamienią jej z dnia na dzień na iSCSI. Ta ścieżka przejścia potrwa z pewnością znacznie dłużej - firmy będą inwestować w iSCSI przy okazji rozbudowy istniejących środowisk lub wymiany znajdującego się w nich sprzętu.

Według IDC udział iSCSI w rynku zewnętrznych dyskowych pamięci masowych to tylko 3%. Analitycy zakładają jednak, że w 2010 r. sięgnie już 20%. Toteż iSCSI ma przed sobą dość długą drogę w detronizacji Fibre Channel.

Ale trend jest czytelny. Szefowie IT, którzy już mają serwery NAS (bez iSCSI) w swoich centrach danych, wymienią je na nowe (lub rozbudują o odpowiednie moduły) w ciągu najbliższych trzech lat - tak twierdzi aż 2/3 badanych. 47% uważa, że wszystkie nowe wdrożenia będą zawierały funkcjonalność iSCSI. 25% planuje zamianę Fibre Channel na iSCSI.


TOP 200