Edge computing – architektura rozproszona w nowej odsłonie
- 18.12.2018, godz. 15:13
W początkowym okresie rozwoju systemów IT przetwarzanie danych odbywało się w komputerach mainframe, by potem zostać przeniesione do komputerów osobistych wraz z ich popularyzacją, a następnie ponownie zostać scentralizowane – w chmurze. Edge computing, kolejna faza cyklu, to powrót koncepcji architektury rozproszonej, tyle że w nowej odsłonie.
W przeciwieństwie do ery komputerów mainframe, w czasach umasowienia komputera osobistego przetwarzanie danych zostało rozproszone na urządzenia końcowe – pecety, laptopy, tablety, a ostatnio do pewnego stopnia również smartfony. Gdy pojawiła się chmura, nastąpiła ponowna centralizacja przetwarzania danych, a funkcja urządzeń końcowych została sprowadzana do dostarczania i odbierania informacji przetwarzanych w centralnym systemie chmurowym. Ciężar obliczeń przesuwa się systematycznie w kierunku chmury lub zdalnych centrów danych, a niektórzy specjaliści przewidują, że już wkrótce aplikacje w komputerach będą wykorzystywać głównie dane i moc przetwarzania udostępniane w chmurach. Komputer zostanie więc „zdegradowany” do terminala.
Edge computing to krok w przeciwnym kierunku. Choć w innej formie, wracamy do idei przetwarzania rozproszonego, gdzie dane są przechowywane, przetwarzane, a nawet analizowane bezpośrednio w urządzeniach końcowych, kontrolerach lub mikrocentrach danych znajdujących się w ich bezpośrednim sąsiedztwie.
Zobacz również:
Zgodnie z przewidywaniami firmy badawczej Markets&Markets wartość rynku rozwiązań edge computing wyniesie w 2022 r. 6,72 mld dol., a roczna stopa wzrostu w tym okresie będzie wynosiła ponad 35%. Według raportu IDC "FutureScape Worldwide IoT 2017 Predictions", w 2019 roku co najmniej 40% danych generowanych przez systemy internetu rzeczy będzie przechowywanych i przetwarzanych na brzegu sieci.
Edge computing - co to jest?
Koncepcja pojawiła się już przynajmniej kilka lat temu. Jest związana głównie z internetem rzeczy i ogólnie opiera się na idei przetwarzania, a często także przechowywania danych przez urządzenia końcowe, kontrolery lub mikrocentra danych działające w ich pobliżu, czyli na brzegu sieci. Według definicji IDC edge computing to kratowa sieć mikrocentrów danych, które lokalnie przetwarzają i / lub przechowują dane, a następnie przesyłają je do centralnej bazy danych działającej w chmurze lub firmowym centrum danych.
Brzeg sieci – definicja zależy od konkretnych zastosowań. Na przykład w systemach telekomunikacyjnych określenie to może dotyczyć smartfona lub komórkowej stacji bazowej, w motoryzacji – samochodu, w przemyśle wytwórczym – pojedynczej maszyny lub linii produkcyjnej, a w innych firmach – laptopa używanego przez pracownika.
Brama brzegowa – urządzenie zapewniające wymianę informacji między systemem, który przechowuje lub przetwarza dane na brzegu sieci, a systemami centralnymi funkcjonującymi w chmurze lub firmowym centrum danych.
Gruby klient – urządzenie działające na brzegu sieci, wyposażone w zasoby i oprogramowanie pozwalające na przetwarzanie danych w odróżnieniu od urządzeń określanych jako cienki klient zapewniających tylko przekazywanie i odbiór informacji z systemów zewnętrznych.
Wszystkie informacje są przechowywane w centralnej bazie danych i analizowane przez aplikacje funkcjonujące w centralnym systemie. A jak wynika z prognoz analityków, popularyzacja zastosowań internetu rzeczy będzie miała duży wpływ na wzrost zapotrzebowania na przepustowość sieci transmisyjnych, a także pojemność pamięci masowych.
Przetwarzanie danych w pobliżu miejsca gdzie one powstają (w urządzeniach IoT lub ich kontrolerach), zamiast przesyłania wszystkich informacji do chmury lub firmowych centrów danych obsługujących system, umożliwia zasadnicze zmniejszenie zapotrzebowania na przepustowość i pozwala na analizę ważnych danych niemal w czasie rzeczywistym.
Zamiast dostarczania wszystkich informacji do centralnych systemów działających w chmurze lub firmowych centrach danych, przesyłane są tylko dane zagregowane, statystyczne, wartościowe z punktu widzenia dalszej analizy lub dotyczące ważnych sytuacji wymagających określonej reakcji ze strony systemu centralnego. Ma to szczególne znaczenie w aplikacjach wykorzystywanych w przemyśle, służbie zdrowia, telekomunikacji i systemach finansowych.
Edge computing nie stoi w sprzeczności z chmurą, ale nieco zmienia perspektywę jej zastosowań. Zamiast zbierać i analizować wszystkie, coraz większe strumienie danych, z których znaczna część jest bezużyteczna, chmura lub firmowe centra danych będą mogły skoncentrować się na przetwarzaniu wartościowych informacji i niezbędnej archiwizacji danych.
Edge computing. Bezpieczeństwo
Czy edge computing to rozwiązanie bezpieczne? Zdania na ten temat są podzielone. Pojawiają się opinie, że – przynajmniej teoretycznie – środowisko edge computing jest bardziej bezpieczne niż inne systemy, bo większość danych nie musi być przesyłana w sieciach rozległych i pozostają one w pobliżu źródła. A im mniej danych jest przekazywanych do chmury lub centralnego, firmowego systemu tym mniejsze jest zagrożenie związane z kompromitacją, któregoś ze środowisk.
Z drugiej strony edge computing z zasady jest rozwiązaniem mniej bezpiecznym, bo trudniej jest zapewnić odpowiednią kontrolę i odporność na ataki na urządzenia końcowe. Bo system powinien zapewniać szyfrowanie przesyłanych informacji, zaawansowaną kontrolę dostępu i transmisję przez kanały VPN jako podstawowe, najważniejsze mechanizmy bezpieczeństwa, co w praktyce nie jest oczywiste.
Edge computing. Najważniejsze zastosowania
W wielu przypadkach zapewnienie stabilnej łączności z urządzeniami internetu rzeczy jest trudne lub też utrzymanie ciągłej wymiany danych z systemem centralnym nie jest rozwiązaniem efektywnym. Tymczasem niektóre aplikacje do wydajnego działania wymagają szczególnie małych opóźnień, np. systemy instytucji finansowych lub przemysłowe systemy produkcyjne – tam nawet opóźnienia liczone w milisekundach są trudne do zaakceptowania.
Tymczasem edge computing umożliwia nie tylko istotne ograniczenie ilości generowanych i przesyłanych w sieciach danych, ale także zmniejszenie opóźnień związanych z reakcją na rejestrowane zdarzenia. Skorzystają na tym również urządzenia internetu rzeczy, umożliwiające lokalne przetwarzanie danych. W kontekście popularyzacji inteligentnych samochodów, dronów, robotów i innych urządzeń, których reakcja na rejestrowane zdarzenia musi być natychmiastowa, opóźnienia związane z przesyłaniem oraz analizą danych w systemie centralnym muszą być minimalne.
Branżą, w której można oczekiwać masowych zastosowań edge computing jest telekomunikacja. Operatorzy sieci wdrażający systemy 5G będą instalować bezpośrednio w stacjach bazowych lub w bezpośrednim sąsiedztwie wież telekomunikacyjnych mikrocentra danych, których moc przetwarzania będzie udostępniana do wynajęcia przez firmy wykorzystujące rozwiązania internetu rzeczy – szacują analitycy IDC. Z kolei w przemyśle wykorzystanie algorytmów diagnostycznych w urządzeniach brzegowych pozwoli na lokalną detekcję odstępstw od normalnej sytuacji bez potrzeby ciągłego przesyłania danych do analizy w systemie centralnym.
Edge computing ma ogromny potencjał, ale należy zauważyć, że nie jest alternatywą dla systemów do centralnej analizy danych. Uzupełnia i rozszerza ich możliwości szczególnie wtedy, gdy szybka reakcja na rejestrowane nieprawidłowości może mieć duże znaczenie dla funkcjonowania systemu.
Edge computing koncentruje się na procesach przechowywania i przetwarzania danych w urządzeniach końcowych lub w bezpośrednim ich pobliżu. Natomiast określenie fog computing odnosi się głównie do sieci łączącej urządzenia końcowe z systemem chmurowym. Inaczej mówiąc, edge computing jest elementem koncepcji fog computing, która dodatkowo obejmuje system sieciowy mający zapewnić niezawodną komunikację i dostarczenie informacji do centralnych baz danych.
Referencyjne architektury systemów wykorzystujących rozwiązania oparte zarówno na obu koncepcjach są rozwijane i prezentowane przez organizację OpenFog Consortium, której głównymi członkami są m.in. Cisco, Intel, Microsoft, Dell EMC oraz uniwersytety Princeton i Purdue.