Szybsze macierze, wydajniejsze światłowody
- 21.12.2010
W metodach składowania i przetwarzaniu danych oraz sposobie dostarczania treści do użytkowników możemy spodziewać się wielu innowacji.
Adam Brogowicz, inżynier systemowy w firmie Ciena
Możemy oczekiwać dalszego rozwoju technologii automatyzujących wykorzystanie mediów o różnej wydajności (auto-tiering). Dzięki nim dane, które najczęściej są odczytywane lub zapisywane, znajdą się automatycznie na najszybszym dostępnym zasobie, podczas gdy najrzadziej używane zostaną przeniesione na najtańsze dyski SATA. Technologię tę, opartą na dyskach SSD, zaadaptowała firma IBM w rozwiązaniach klasy enterprise (SAN Volume Controller) dysponujących mechanizmem Easy Tier, który skanuje najczęściej odczytywane fragmenty aplikacji i migruje je automatycznie na dyski SSD. Jest to ciekawa opcja, zwłaszcza dla mniejszych firm, które nie mają dużych woluminów, ale potrzebują wydajności za rozsądną cenę. "Dotąd opcja ta była dostępna w macierzach klasy enterprise, ale udowadnia swoją przydatność także w niewielkich urządzeniach dla sektora MSP" - wyjaśnia Piotr Pietrzak. Ponieważ mniejsze firmy rzadko przetwarzają jednocześnie duże pule danych, dwa niewielkie dyski SSD zaoferują niemal porównywalną wydajność jak wolumin w całości utworzony z pamięci półprzewodnikowej.
Kolejną opcją, która powinna pojawić się niebawem, jest replikacja asynchroniczna TCP/IP. Obecnie małe i średnie firmy przeważnie nie dysponują narzędziami replikacji danych do rezerwowego ośrodka, gdyż inwestycja w takie zabezpieczenie wymaga budowy kosztownej infrastruktury Fibre Channel i synchronicznej replikacji. O wiele tańsza jest replikacja asynchroniczna w połączeniu TCP/IP, ale nie każda macierz przeznaczona dla sektora MSP ma taką opcję. Umożliwi ona budowę dwóch odpornych na awarie ośrodków znacznie taniej niż obecnie. Rolę drugiego centrum może odgrywać centrum hostingowe. Usługi backupu ze składowaniem danych w centrum usługowym są dostępne już teraz, choć nie są jeszcze popularne.
Akceleracja sprzętowa
Rozwój specjalizowanych mikroprocesorów graficznych GPU umożliwia przeniesienie części obliczeń związanych z grafiką z procesora do modułu grafiki. W ten sposób odciążano CPU już od wielu lat, ale obecnie opracowano API, które umożliwia wykonanie praktycznie dowolnych obliczeń przy wykorzystaniu GPU. Dzisiejsze karty oferują bardzo wysoką wydajność obliczeniową. Najszybszy komputer świata wg listy TOP500 korzysta właśnie z akceleracji za pomocą GPU firmy Nvidia. Akceleracja sprzętowa została wprowadzona do przeglądarki Internet Explorer, ale także znajduje swoje zastosowanie przy odtwarzaniu wideo za pomocą Adobe Flasha. "Od wersji 10.1 wprowadziliśmy sprzętowe dekodowanie wideo w formacie H.264, dzięki czemu możemy przenieść obciążenie z CPU, poprawiając przy tym wydajność odtwarzania, prędkość pracy i zmniejszając zużycie zasobów systemowych. Obecnie przenosimy na GPU cały potok renderowania, wliczając konwersję barw, skalowanie i blitting. Dzięki sprawnej akceleracji przy użyciu Stage Video można osiągnąć odtwarzanie filmów 1080p HD przy wykorzystaniu procesora oscylującym w okolicach 1% na niektórych laptopach" - deklaruje Paul Betlem z firmy Adobe.