Te technologie będą mocno rozwijane w centrach danych w 2019 roku

Zbliża się koniec roku co skłania analityków obserwujących rynek IT do snucia prognoz, co może nasz czekać w tym obszarze gospodarki w przyszłym roku. Koncentrują się przy tym głównie na technologiach, które będą wtedy dominować w systemach obliczeniowych.

Przytaczamy więc przewidywania, jakie opublikował kilka dni temu amerykański serwis Networkworld. Znajdziemy tu pięć technologii, które w opinii tego serwisu odegrają szczególną rolę w procesie rozwoju centrów danych.

1. Mikrousługi i bezserwerowe przetwarzanie danych. Chociaż wirtualizacja ma wiele zalet, to niektórzy rezygnują z niej ponieważ dochodzą do wniosku, że pochłania ona zbyt dużo zasobów IT. Musi mieć np. do dyspozycji kompletne wystąpienie systemu operacyjnego co w efekcie powoduje, że na serwerze dysponującym nawet sporą pamięcią nie można konfigurować zbyt dużej liczy wirtualnych maszyn. Wtedy swoje zalety ujawniają takie technologie, jak mikrousługi i kontenery czy bezserwerowe przetwarzanie danych. Kontener zajmuje w pamięci przestrzeń adresową o długości 10 MB, podczas gdy w przypadku pełnej maszyny wirtualnej jest to niejednokrotnie kilka gigabajtów.

2. Chmury i desktopy. Wiodący dostawcy usług chmurowych (w tym Microsoft) zaczęli się od jakiś czasu mocno interesować desktopami i przystąpili do opracowywania rozwiązań, które pozwalają użytkownikom budować w chmurach wirtualne desktopy.

Biorąc pod uwagę fakt, że system Windows 7 zakończy swój żywot w 2020 roku (chodzi o wsparcie techniczne) może to być strzał w dziesiątkę, a rok 2019 może będzie rokiem przejściowym. Można oczywiście spekulować, że w przyszłym roku użytkownicy zaczną w związku z tym gremialnie przechodzić na system Windows 10. Jednak znajdą się zapewne i tacy, dla których atrakcyjniejszym rozwiązaniem może być usługa oferujący im wirtualny, chmurowy desktop.

3. Edge computing – to technologia, która cały czas dojrzewa, ale nie doczekała się jeszcze spójnego biznesowego modelu. W przyszłym roku może to się zmienić.

Mówiąc najprościej to specyficzny sposób przetwarzania rozproszonych zasobów IT, polegający na realizowaniu tego zadania nie w samym centrum ośrodka obliczeniowego, ale na obrzeżach obsługującej go sieci. Zaletą rozwiązanie jest to, dane są w takim modelu przetwarzane blisko źródeł, z których są pobierane. Docierają one wtedy do obsługujących je układów CPU w czasie liczonym w dziesiątkach milisekund.

4. Układy sCPU/GPU chłodzone wodą. Projektowane obecnie układy CPU pobierają często powyżej 200 watów mocy. W przypadku układów graficznych może to być nawet 300 watów. Wytwarzają one tak dużo ciepła, że powietrze nie jest w stanie ich schłodzić, dlatego do głosu dochodzi wtedy technologia, w której ciepło odprowadza od układu scalonego woda.

Po technologię tę sięgnęła np. firma Google w momencie wyprodukowania kolejnej wersji procesora Tensor Processing Unit . Ogłosiła wtedy, że z względu na duży pobór mocy zastosowała system, w który generowane przez procesor ciepło absorbuje woda.

5. Przenoszenie obciążeń z punktów końcowych do centrów danych. Dane same w sobie - poza nielicznymi wyjątkami, np. wtedy gdy zawierają wrażliwe informacje, takie jak ID czy hasła uwierzytelniające użytkowników – nie przedstawiają dużej wartości do momentu, w którym zostaną przetworzone. Dlatego dane zbierane przez urządzenia nie dysponujące dużą mocą obliczeniową - takie jak smartfony, tablety czy nawet pecety - są przesyłane do chmury, gdzie są analizowane i przetwarzane.

To samo obserwujemy w sieciach IoT. Zainstalowane w nich mierniki i czujniki wyłącznie zbierają dane i odsyłają je do dysponujących silnymi serwerami centrów danych, gdzie są na różne sposoby przetwarzane. Według analityków taki model przetwarzania danych będzie się intensywnie rozwijać w 2019 roku.