Czy Edge Computing to nowa chmura

Infrastruktura brzegowa ma odciążyć ma tradycyjną chmurę obliczeniową lub firmowe centrum danych, realizując obliczenia najbliżej jak to możliwe miejsca zbierania danych. Czym w istocie jest Edge Computing, w jakich sytuacjach jest niezbędny i jak uzupełnia chmurę?

Idea Edge Computingu pojawiła się na początku lat dwutysięcznych i dotyczy rozproszonego przetwarzania danych tak, aby informacje te, a przynajmniej znaczna ich część, były przetwarzane jak najbliżej miejsca ich powstawania.

Z rozproszonym przetwarzaniem danych powiązany jest rozwój internetu rzeczy. Wynika to z faktu, że systemy IoT zbierają ogromne ilości danych w czasie rzeczywistym z miejsca, w którym są zamontowane, a informacje te trzeba jakoś przesłać i przetworzyć. Zgodnie z raportem „Data Age 2025: The Digitization of the World, From Edge to Core” przygotowanym przez analityków z IDC na zlecenie firmy Seagate, ludzie oraz wszystkie pracujące w sieci urządzenia, w tym urządzenia IoT, w 2025 roku generować będą aż 175 zetabajtów, czyli bilionów gigabajtów danych. W 2018 roku było to „zaledwie” 33 ZB.

Zobacz również:

  • Dell Technologies Forum 2023
  • Cyfrowa transformacja z AI - co nowego na Google Cloud Next 24
  • Jak centra danych wpływają na środowisko naturalne?

Według wspomnianego raportu IDC, na chwilę obecną aż 48% tych danych wysyłanych jest bezpośrednio do chmury lub do rożnego rodzaju rozrzuconych po całym świecie centrów danych. Za pięć lat, będzie to już ponad 59% danych. Co gorsza, 30% z nich, a więc 52,5 ZB, wymagać będzie przetwarzania w czasie rzeczywistym. Taki zalew informacji pociągać będzie za sobą konieczność przeznaczania ogromnych środków na inwestycje w infrastrukturę do ich przesyłania.

Z punktu widzenia ilości generowanych, przesyłanych i przetwarzanych danych, dodatkowym problemem będzie rozwój samochodów autonomicznych, gdzie informacje muszą być wymieniane pomiędzy poszczególnymi pojazdami i infrastrukturą drogową na bieżąco, gdyż od tego zależy bezpieczeństwo i życie podróżujących w nich ludzi. Z pomocą przychodzi właśnie Edge Computing.

Dane niekoniecznie do chmury

Podstawową zaletą Edge Computingu jest obniżenie wymagań dotyczących przepustowości łączy. Co więcej, w pewnym stopniu można też uniezależnić się od połączenia z internetem, dzięki czemu przetwarzanie krawędziowe sprawdzi się wszędzie tam, gdzie utrudniony jest dostęp do sieci. Przeniesienie przetwarzania danych bliżej miejsca ich powstawania obniża zatem ryzyko przestojów spowodowanych awarią łącza internetowego.

Kolejną zaletą Edge Computingu jest zmniejszenie opóźnień w przetwarzaniu informacji w czasie rzeczywistym. Wysyłając dane do chmury musimy mieć gwarancję, że będą one dochodziły i wracały już po przetworzeniu z opóźnieniami nie większymi niż jedna milisekunda, co jest podstawowym wymaganiem dotyczącym pracy w czasie rzeczywistym. Oznacza to, że centrum danych, do którego trafiają nasze dane, nie może znajdować się dalej niż 150 km od nas. Przeniesienie przetwarzania danych tam, gdzie są one generowane sprawi, że margines błędu związanego z krytycznymi opóźnieniami staje się znacznie większy.

Edge Computing pozwala też na obniżenie wymagań dotyczących mocy obliczeniowej i zasobów chmury. Dzięki temu można w znaczący sposób obniżyć całkowite koszty zakupu i utrzymania sprzętu pracującego w centrum danych, a także zmniejszyć koszty związane z jego eksploatacją zmniejszając m.in. pobór prądu niezbędnego do zasilenia serwerów czy klimatyzacji.

Jak twierdzi firma Gartner w swoim opracowaniu z 2018 roku „What Edge Computing Means for Infrastructure and Operations Leaders”, ten sposób podejścia do Edge Computingu, przetwarzania danych w chmurze i internetu rzeczy pozwoli zaoszczędzić nawet do 36% kosztów związanych z przetwarzaniem danych w sposób scentralizowany.

Jest to o tyle istotne, że według szacunków Gartnera liczba urządzeń wykorzystujących technologię IoT w przyszłym roku sięgnie już 20 mld. Jak widać, według analityków połączenie technologii Edge Computingu z rozwiązaniami chmurowymi to obecnie jedna z najlepszych dróg do zapewnienia dalszego rozwoju internetu rzeczy, czy wspomnianych samochodów autonomicznych.

Węzły brzegowe

Cechą charakterystyczną rozproszonej architektury, która odróżnia ją od rozproszonych systemów klient-serwer, jest istnienie warstwy pośredniej związanej z przetwarzaniem danych czyli tzw. węzłów brzegowych. Węzły te nazywa się często nodami lub cloudletami. Warto zwrócić uwagę na fakt, że cloudletem może być zarówno pojedynczy serwer, komputer przemysłowy lub system wbudowany, układ SoC (System on Chip) sterujący urządzeniem czy nawet niewielka serwerownia bądź lokalna, nieduża chmura. Warunkiem koniecznym jest to, że takie nody muszą znajdować się jak najbliżej urządzeń końcowych czyli na krawędzi sieci.

Zadaniem węzła brzegowego jest zbieranie danych z urządzeń lokalnych oraz ich wstępne przetworzenie. Tak obrobione wstępnie, zredagowane i ustrukturyzowane dane przesyłane są następnie do nadrzędnej chmury lub serwerowni. Dzięki temu, że zostały już one w jakimś stopniu przetworzone, jest ich istotnie mniej w stosunku do danych, jakie są zbierane bezpośrednio z urządzeń internetu rzeczy czy systemów IT. Zmniejszenie ilości przesyłanych danych to warunek konieczny, pozwalający na odróżnienie Edge Computingu od architektury klient-serwer.

Przesłane, wstępnie obrobione informacje nadają się już bez problemu jako dane wejściowe do dalszej ich analizy w systemach Bussiness Inteligence, do uczenia maszynowego czy jako dane np. do systemu ERP czy CRM.

Oczywiście, nod nie musi przesyłać do centrum danych wszystkich zebranych informacji czy obrobionych przez siebie wyników. Jeśli zakres przetwarzania danych i ich lokalnego składowania realizowany w węźle brzegowym jest wystarczający, nie ma potrzeby ich przesyłania ich do nadrzędnej chmury obliczeniowej. Jak widać, jest to bardzo elastyczne rozwiązanie, a sama architektura brzegowa nie określa, czy przetwarzanie danych powinno odbywać się bezpośrednio w urządzeniach, które je generują, czy też w umieszczonych wyżej w strukturze cloudletach, bądź w nadrzędnym centrum danych czy chmurze.

Infrastruktura krawędziowa

Ze względu na lokalizację węzłów brzegowych wyróżnia się trzy główne typy infrastruktury brzegowej. Pierwsza z nich to infrastruktura budynkowa. Jest to infrastruktura położona poza główną serwerownią firmy, ale znajdująca się jak najbliżej miejsca zbierania danych, np. bezpośrednio przy linii produkcyjnej, w hali fabrycznej czy na poszczególnych piętrach inteligentnego biurowca. Może to być niewielka serwerownia lub komputer przemysłowy, który zbiera informacje bezpośrednio z monitorowanego sprzętu, np. z czujników zamontowanych na linii produkcyjnej czy inteligentnych liczników energii.

Drugim typem infrastruktury krawędziowej, która jest już nieco oddalona od urządzeń końcowych, jest infrastruktura kampusowa. Tutaj dane zbierane są z większego obszaru i dlatego węzeł brzegowy wyposażony jest we własne urządzenia sieciowe takie jak kontrolery, przełączniki i rutery. Węzłem takim może być pojedynczy serwer, serwery klasy blade a nawet niewielka serwerownia z jedną czy dwiema szafami serwerowymi.

Ostatnim rodzajem infrastruktury brzegowej jest infrastruktura regionalna nazywana też metropolitalną. Są to tak naprawdę lokalne, niewielkie lub średniej wielkości serwerownie wyposażone w standardowy sprzęt IT. Od zwykłej serwerowni odróżnia je to, że są zlokalizowane dość blisko punktów zbierania danych i odpowiadają za ich agregację i wstępną, a nierzadko nawet pełną analizę danych.

Taka serwerownia może należeć zarówno do przedsiębiorstwa, jak i do lokalnego dostawcy usług internetowych czy chmurowych. Istotnym wyznacznikiem jest jej oddalenie od miejsc zbierania danych. Odległość serwerowni od krawędzi sieci i urządzeń końcowych nie powinna być większa niż kilka- kilkanaście kilometrów.

Korzyści i wady

Główną korzyścią wynikającą z zastosowania Edge Computingu, oprócz odciążenia infrastruktury sieciowo-serwerowej, jest możliwość analizowania informacji na miejscu u źródła generowania danych. Dzięki temu można uzyskać znacznie lepszy wskaźnik czasu do wartości danych. Wyeliminowanie procesu przesyłania danych sprawia, że opóźnienia zredukowane są tu do minimum, a co za tym idzie, można w znaczący sposób przyspieszyć proces podejmowania decyzji. Ma to znaczenie zwłaszcza w zastosowaniach finansowych, np. transakcji giełdowych czy bankowych, oraz w systemach sterowania inteligentnym miastem, w tym infrastrukturą krytyczną istotną z punktu autonomicznych pojazdów.

Branżą, która zyska na rozproszonym modelu przetwarzania danych, jest przemysł. Dzięki Edge Computingowi możliwe jest szybkie wykrywanie potencjalnych zagrożeń, awarii maszyn czy problemów z ciągłością produkcji, bez potrzeby prowadzenia kosztownych planowanych przeglądów, i to mimo słabej infrastruktury sieciowo-internetowej na terenach oddalonych od ludzkich osiedli, tak jak ma to miejsce w wypadku elektrowni czy kopalni.

Oczywiście, jak każda architektura infrastruktury IT, również i Edge Computing, ma swoje wady. Pierwszą z nich jest bardziej skomplikowana struktura całego systemu. Wprowadzenie dodatkowej warstwy urządzeń, węzłów brzegowych, którymi trzeba zarządzać i które trzeba serwisować, powoduje wzrost kosztów związane z utrzymaniem systemu jako całości. Nie stanowi to problemu, jeśli są to wbudowane fabrycznie w urządzenia końcowe komputery klasy embedded czy układy SoC. Gorzej, jeśli warstwą pośrednią ma być niewielka serwerownia, którą trzeba zbudować od zera.

Problemem może być także integracja architektury brzegowej z systemami zewnętrznych dostawców usług chmurowych. W przypadku cloud computingu mamy zazwyczaj do czynienia z modelem usługi Software as a Service, gdzie kupuje się po prostu usługę. W modelu Edge Computing konieczne jest wprowadzenie dodatkowej warstwy odpowiedzialnej za przetwarzanie danych zlokalizowanej w sieci klienta na krawędzi sieci. Oczywiście, znacznie łatwiej jest w wypadku chmury hybrydowej i prywatnej, gdzie właścicielem rozwiązania, a jednocześnie jego użytkownikiem jest jedna i ta sama firma.

Czy Edge Computing zastąpi chmurę

Nie – przetwarzanie brzegowe jest uzupełnieniem chmury w hybrydowym środowisku IT. Obliczenia w chmurze mają znacznie większy potencjał i możliwości, związane choćby ze skalowaniem, czego nie są nam w stanie dostarczyć w odpowiednim wymiarze nody.

Edge Computing stanie się jednak centralnym punktem przetwarzania danych w czasie rzeczywistym, które nie będzie jednak mogło istnieć bez możliwości obliczeniowych chmury. Jak przewidują analitycy Gartnera chmura stanie się technologią nieco bardziej pasywną, skierowaną na przetwarzanie przygotowanych uprzednio danych, a nie na ich bezpośrednie obrabianie i pozyskiwania. Zasoby wymagane do przetwarzania i przechowywania danych będą rozpraszane w wielu mniejszych, zwiększając tym samym ich bezpieczeństwo i uniezależniając od lokalnych katastrof typu trzęsienie ziemi, pożar czy powódź.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200