Edge computing – architektura rozproszona w nowej odsłonie

W początkowym okresie rozwoju systemów IT przetwarzanie danych odbywało się w komputerach mainframe, by potem zostać przeniesione do komputerów osobistych wraz z ich popularyzacją, a następnie ponownie zostać scentralizowane – w chmurze. Edge computing, kolejna faza cyklu, to powrót koncepcji architektury rozproszonej, tyle że w nowej odsłonie.

W przeciwieństwie do ery komputerów mainframe, w czasach umasowienia komputera osobistego przetwarzanie danych zostało rozproszone na urządzenia końcowe – pecety, laptopy, tablety, a ostatnio do pewnego stopnia również smartfony. Gdy pojawiła się chmura, nastąpiła ponowna centralizacja przetwarzania danych, a funkcja urządzeń końcowych została sprowadzana do dostarczania i odbierania informacji przetwarzanych w centralnym systemie chmurowym. Ciężar obliczeń przesuwa się systematycznie w kierunku chmury lub zdalnych centrów danych, a niektórzy specjaliści przewidują, że już wkrótce aplikacje w komputerach będą wykorzystywać głównie dane i moc przetwarzania udostępniane w chmurach. Komputer zostanie więc „zdegradowany” do terminala.

Edge computing to krok w przeciwnym kierunku. Choć w innej formie, wracamy do idei przetwarzania rozproszonego, gdzie dane są przechowywane, przetwarzane, a nawet analizowane bezpośrednio w urządzeniach końcowych, kontrolerach lub mikrocentrach danych znajdujących się w ich bezpośrednim sąsiedztwie.

Zobacz również:

  • Dell Technologies Forum 2023
  • Nvidia odtworzyła całą planetę. Teraz wykorzysta jej cyfrowego bliźniaka do dokładnego prognozowania pogody

Zgodnie z przewidywaniami firmy badawczej Markets&Markets wartość rynku rozwiązań edge computing wyniesie w 2022 r. 6,72 mld dol., a roczna stopa wzrostu w tym okresie będzie wynosiła ponad 35%. Według raportu IDC "FutureScape Worldwide IoT 2017 Predictions", w 2019 roku co najmniej 40% danych generowanych przez systemy internetu rzeczy będzie przechowywanych i przetwarzanych na brzegu sieci.

Edge computing - co to jest?

Koncepcja pojawiła się już przynajmniej kilka lat temu. Jest związana głównie z internetem rzeczy i ogólnie opiera się na idei przetwarzania, a często także przechowywania danych przez urządzenia końcowe, kontrolery lub mikrocentra danych działające w ich pobliżu, czyli na brzegu sieci. Według definicji IDC edge computing to kratowa sieć mikrocentrów danych, które lokalnie przetwarzają i / lub przechowują dane, a następnie przesyłają je do centralnej bazy danych działającej w chmurze lub firmowym centrum danych.

Edge computing - podstawowe pojęcia

Brzeg sieci – definicja zależy od konkretnych zastosowań. Na przykład w systemach telekomunikacyjnych określenie to może dotyczyć smartfona lub komórkowej stacji bazowej, w motoryzacji – samochodu, w przemyśle wytwórczym – pojedynczej maszyny lub linii produkcyjnej, a w innych firmach – laptopa używanego przez pracownika.

Brama brzegowa – urządzenie zapewniające wymianę informacji między systemem, który przechowuje lub przetwarza dane na brzegu sieci, a systemami centralnymi funkcjonującymi w chmurze lub firmowym centrum danych.

Gruby klient – urządzenie działające na brzegu sieci, wyposażone w zasoby i oprogramowanie pozwalające na przetwarzanie danych w odróżnieniu od urządzeń określanych jako cienki klient zapewniających tylko przekazywanie i odbiór informacji z systemów zewnętrznych.

Architektura edge computing jest najczęściej wymieniana w kontekście systemów internetu rzeczy nieprzypadkowo. Klasyczna architektura systemów internetu rzeczy to zestaw różnego rodzaju detektorów, które przesyłają dane do centralnego systemu najczęściej za pośrednictwem lokalnego kontrolera obsługującego wiele sond, który zapewnia łączność z systemem centralnym.

Wszystkie informacje są przechowywane w centralnej bazie danych i analizowane przez aplikacje funkcjonujące w centralnym systemie. A jak wynika z prognoz analityków, popularyzacja zastosowań internetu rzeczy będzie miała duży wpływ na wzrost zapotrzebowania na przepustowość sieci transmisyjnych, a także pojemność pamięci masowych.

Przetwarzanie danych w pobliżu miejsca gdzie one powstają (w urządzeniach IoT lub ich kontrolerach), zamiast przesyłania wszystkich informacji do chmury lub firmowych centrów danych obsługujących system, umożliwia zasadnicze zmniejszenie zapotrzebowania na przepustowość i pozwala na analizę ważnych danych niemal w czasie rzeczywistym.

Zamiast dostarczania wszystkich informacji do centralnych systemów działających w chmurze lub firmowych centrach danych, przesyłane są tylko dane zagregowane, statystyczne, wartościowe z punktu widzenia dalszej analizy lub dotyczące ważnych sytuacji wymagających określonej reakcji ze strony systemu centralnego. Ma to szczególne znaczenie w aplikacjach wykorzystywanych w przemyśle, służbie zdrowia, telekomunikacji i systemach finansowych.

Edge computing nie stoi w sprzeczności z chmurą, ale nieco zmienia perspektywę jej zastosowań. Zamiast zbierać i analizować wszystkie, coraz większe strumienie danych, z których znaczna część jest bezużyteczna, chmura lub firmowe centra danych będą mogły skoncentrować się na przetwarzaniu wartościowych informacji i niezbędnej archiwizacji danych.

Edge computing. Bezpieczeństwo

Czy edge computing to rozwiązanie bezpieczne? Zdania na ten temat są podzielone. Pojawiają się opinie, że – przynajmniej teoretycznie – środowisko edge computing jest bardziej bezpieczne niż inne systemy, bo większość danych nie musi być przesyłana w sieciach rozległych i pozostają one w pobliżu źródła. A im mniej danych jest przekazywanych do chmury lub centralnego, firmowego systemu tym mniejsze jest zagrożenie związane z kompromitacją, któregoś ze środowisk.

Z drugiej strony edge computing z zasady jest rozwiązaniem mniej bezpiecznym, bo trudniej jest zapewnić odpowiednią kontrolę i odporność na ataki na urządzenia końcowe. Bo system powinien zapewniać szyfrowanie przesyłanych informacji, zaawansowaną kontrolę dostępu i transmisję przez kanały VPN jako podstawowe, najważniejsze mechanizmy bezpieczeństwa, co w praktyce nie jest oczywiste.

Edge computing. Najważniejsze zastosowania

W wielu przypadkach zapewnienie stabilnej łączności z urządzeniami internetu rzeczy jest trudne lub też utrzymanie ciągłej wymiany danych z systemem centralnym nie jest rozwiązaniem efektywnym. Tymczasem niektóre aplikacje do wydajnego działania wymagają szczególnie małych opóźnień, np. systemy instytucji finansowych lub przemysłowe systemy produkcyjne – tam nawet opóźnienia liczone w milisekundach są trudne do zaakceptowania.

Edge computing – architektura rozproszona w nowej odsłonie

Tymczasem edge computing umożliwia nie tylko istotne ograniczenie ilości generowanych i przesyłanych w sieciach danych, ale także zmniejszenie opóźnień związanych z reakcją na rejestrowane zdarzenia. Skorzystają na tym również urządzenia internetu rzeczy, umożliwiające lokalne przetwarzanie danych. W kontekście popularyzacji inteligentnych samochodów, dronów, robotów i innych urządzeń, których reakcja na rejestrowane zdarzenia musi być natychmiastowa, opóźnienia związane z przesyłaniem oraz analizą danych w systemie centralnym muszą być minimalne.

Branżą, w której można oczekiwać masowych zastosowań edge computing jest telekomunikacja. Operatorzy sieci wdrażający systemy 5G będą instalować bezpośrednio w stacjach bazowych lub w bezpośrednim sąsiedztwie wież telekomunikacyjnych mikrocentra danych, których moc przetwarzania będzie udostępniana do wynajęcia przez firmy wykorzystujące rozwiązania internetu rzeczy – szacują analitycy IDC. Z kolei w przemyśle wykorzystanie algorytmów diagnostycznych w urządzeniach brzegowych pozwoli na lokalną detekcję odstępstw od normalnej sytuacji bez potrzeby ciągłego przesyłania danych do analizy w systemie centralnym.

Edge computing ma ogromny potencjał, ale należy zauważyć, że nie jest alternatywą dla systemów do centralnej analizy danych. Uzupełnia i rozszerza ich możliwości szczególnie wtedy, gdy szybka reakcja na rejestrowane nieprawidłowości może mieć duże znaczenie dla funkcjonowania systemu.

Edge computing a fog computing

Edge computing koncentruje się na procesach przechowywania i przetwarzania danych w urządzeniach końcowych lub w bezpośrednim ich pobliżu. Natomiast określenie fog computing odnosi się głównie do sieci łączącej urządzenia końcowe z systemem chmurowym. Inaczej mówiąc, edge computing jest elementem koncepcji fog computing, która dodatkowo obejmuje system sieciowy mający zapewnić niezawodną komunikację i dostarczenie informacji do centralnych baz danych.

Referencyjne architektury systemów wykorzystujących rozwiązania oparte zarówno na obu koncepcjach są rozwijane i prezentowane przez organizację OpenFog Consortium, której głównymi członkami są m.in. Cisco, Intel, Microsoft, Dell EMC oraz uniwersytety Princeton i Purdue.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200