Szybsze macierze, wydajniejsze światłowody

W metodach składowania i przetwarzaniu danych oraz sposobie dostarczania treści do użytkowników możemy spodziewać się wielu innowacji.

Szybsze macierze, wydajniejsze światłowody
Operator będzie mógł przydzielać pasmo dla poszczególnych usług zależnie od potrzeb użytkowników. Podczas dnia z tej samej puli pasmo może być podzielone między usługi inaczej niż nocą. Takie zarządzanie jest pierwszym krokiem do kupowania pasma na żądanie.

Adam Brogowicz, inżynier systemowy w firmie Ciena

Rozwiązania storage’owe coraz częściej wykorzystują pamięci półprzewodnikowe. W miarę rozwoju pamięci SSD będą się pojawiać coraz sprawniejsze, wydajniejsze i tańsze rozwiązania, które w wielu zastosowaniach będą mogły z powodzeniem zastąpić dyski mechaniczne. Ta dość kosztowna obecnie alternatywa oferuje bardzo dobrą wydajność i może być wykorzystana do przyspieszenia pracy wielu baz danych. Początkowo moduły SSD były stosowane tylko w konfiguracji per wolumin; obecne rozwiązania maksymalnie wykorzystują pojemność takich dysków, przenosząc tam najczęściej pobierane lub zapisywane bloki danych. "Automatyczna migracja danych na wolumin utworzony z dysków SSD (można zacząć już od dwóch dysków ze względu na bezpieczeństwo danych) jest znaczącym krokiem naprzód w rozwoju podsystemów dyskowych, zwłaszcza w obszarze rynku średnich firm. Pamięci SSD w ogromnym stopniu przyspieszają działanie aplikacji, takich jak hurtownie danych, przy zachowaniu bardzo korzystnej relacji ceny do wydajności liczonej w liczbie operacji I/O na sekundę" - wyjaśnia Piotr Pietrzak, główny technolog IBM Polska.

Możemy oczekiwać dalszego rozwoju technologii automatyzujących wykorzystanie mediów o różnej wydajności (auto-tiering). Dzięki nim dane, które najczęściej są odczytywane lub zapisywane, znajdą się automatycznie na najszybszym dostępnym zasobie, podczas gdy najrzadziej używane zostaną przeniesione na najtańsze dyski SATA. Technologię tę, opartą na dyskach SSD, zaadaptowała firma IBM w rozwiązaniach klasy enterprise (SAN Volume Controller) dysponujących mechanizmem Easy Tier, który skanuje najczęściej odczytywane fragmenty aplikacji i migruje je automatycznie na dyski SSD. Jest to ciekawa opcja, zwłaszcza dla mniejszych firm, które nie mają dużych woluminów, ale potrzebują wydajności za rozsądną cenę. "Dotąd opcja ta była dostępna w macierzach klasy enterprise, ale udowadnia swoją przydatność także w niewielkich urządzeniach dla sektora MSP" - wyjaśnia Piotr Pietrzak. Ponieważ mniejsze firmy rzadko przetwarzają jednocześnie duże pule danych, dwa niewielkie dyski SSD zaoferują niemal porównywalną wydajność jak wolumin w całości utworzony z pamięci półprzewodnikowej.

Kolejną opcją, która powinna pojawić się niebawem, jest replikacja asynchroniczna TCP/IP. Obecnie małe i średnie firmy przeważnie nie dysponują narzędziami replikacji danych do rezerwowego ośrodka, gdyż inwestycja w takie zabezpieczenie wymaga budowy kosztownej infrastruktury Fibre Channel i synchronicznej replikacji. O wiele tańsza jest replikacja asynchroniczna w połączeniu TCP/IP, ale nie każda macierz przeznaczona dla sektora MSP ma taką opcję. Umożliwi ona budowę dwóch odpornych na awarie ośrodków znacznie taniej niż obecnie. Rolę drugiego centrum może odgrywać centrum hostingowe. Usługi backupu ze składowaniem danych w centrum usługowym są dostępne już teraz, choć nie są jeszcze popularne.

Akceleracja sprzętowa

Rozwój specjalizowanych mikroprocesorów graficznych GPU umożliwia przeniesienie części obliczeń związanych z grafiką z procesora do modułu grafiki. W ten sposób odciążano CPU już od wielu lat, ale obecnie opracowano API, które umożliwia wykonanie praktycznie dowolnych obliczeń przy wykorzystaniu GPU. Dzisiejsze karty oferują bardzo wysoką wydajność obliczeniową. Najszybszy komputer świata wg listy TOP500 korzysta właśnie z akceleracji za pomocą GPU firmy Nvidia. Akceleracja sprzętowa została wprowadzona do przeglądarki Internet Explorer, ale także znajduje swoje zastosowanie przy odtwarzaniu wideo za pomocą Adobe Flasha. "Od wersji 10.1 wprowadziliśmy sprzętowe dekodowanie wideo w formacie H.264, dzięki czemu możemy przenieść obciążenie z CPU, poprawiając przy tym wydajność odtwarzania, prędkość pracy i zmniejszając zużycie zasobów systemowych. Obecnie przenosimy na GPU cały potok renderowania, wliczając konwersję barw, skalowanie i blitting. Dzięki sprawnej akceleracji przy użyciu Stage Video można osiągnąć odtwarzanie filmów 1080p HD przy wykorzystaniu procesora oscylującym w okolicach 1% na niektórych laptopach" - deklaruje Paul Betlem z firmy Adobe.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200