Sieć 5G jako oprogramowanie

Wirtualizacja sieci komputerowych i kloudonomika zyskują na znaczeniu. Kolejna generacja technologii mobilnych zmienia rynkowe zależności w branży telekomunikacyjnej.

Gospodarcza innowacyjność wymaga ciągłej obserwacji trendów technologicznych oraz ich prognozowania, aby postawić na wygrywającego konia. Warto przy tym pamiętać, że powstawanie nowych technologii związane jest z cyklami rozwoju gospodarki, a więc także z jej kryzysami. Wiedza historyczna i statystyczna, jaką posiadamy, pokazuje, że zwłaszcza w okresach przesileń wzrasta skłonność do podejmowania ryzyka i poszukiwania nowych rozwiązań, które mają zapewniać wyższą produktywność. Występuje tu efekt tzw. ssania rynkowo-technologicznego, prowadzącego do nowych wynalazków. I wreszcie na końcu tego kręgu pojawia się faza nasycenia, później kolejny kryzys i dany cykl się zamyka. Z punktu widzenia praktyki biznesowej najważniejszy jest właśnie etap finalny: niedrogie i stabilne rozwiązania, powszechnie dostępne. Dla liderów rynku oznacza to wówczas posiadanie fabryki pieniędzy.

Jednak w tym samym momencie dynamizm (wcześniej) nowej technologii jest już tendencyjnie mniejszy. Zaczyna ona przechodzić do fazy schyłkowej, występując na rynku jako coraz prostszy i przewidywalny składnik rzeczywistości ekonomicznej. Technologiczna innowacyjność takiego rozwiązania, faktycznie już klasycznego, jest wówczas niewielka. W jakim zatem momencie znajdują się obecnie technologie informatyczne oraz telekomunikacyjne i jakie trendy będą dominować w bliskiej przyszłości?

Zobacz również:

W poszukiwaniu odpowiedzi na tak postawione pytanie pomocne są modele rozwoju korzystające z pojęcia generacyjności. Przy czym definiowanie generacji technologicznej jest utrudnione w chwili jej powstawania i łatwiejsze dopiero z pewnej perspektywy czasowej. Przecież w momencie pojawienia się przełomowej technologii nie myślimy o niej od razu w kategoriach „pierwszej generacji” – ta definiowana jest dopiero w chwili, gdy pojawi się generacja następna.

Wydajność 5G to możliwość łączenia się ze sobą wielkiej liczby aplikacji. Przyjmuje się wskaźnik 100 urządzeń na 1 m2. Współczynnik wydaje się olbrzymi, ale biorąc pod uwagę perspektywę „mikroprocesora w każdej cegle”, 100/m2 jest liczbą skromną.

Przykład. Kiedy zaczęto konstruować tranzystorowe maszyny cyfrowe, zauważono, że postęp technologiczny upoważnia, aby mówić o nich jako o sprzęcie drugiej generacji, w odróżnieniu od wcześniejszej technologii lampowej, która charakteryzowała generację pierwszą. Jednocześnie zdefiniowano w ten sposób, co jest głównym kryterium generacyjności komputerów – technika wykonania ich podstawowych składników elektronicznych. W tym samym momencie dostrzeżono więc, że przed lampami były przekaźniki i uzupełniono formalnie klasyfikację o numer zerowy dla tych urządzeń.

Filary platformy

Podobne zależności występują w innych obszarach rozwojowych (rysunek 1) – internetu (od jego początków w latach 60. do obecnego Webu 3.0) czy przemysłu – aż do jego nadchodzącej postaci 4.0, z systemami cyberfizycznymi (CPS, Cyber-Physical System) oraz internetem przedmiotów (IoT, Internet of Things). Rozszyfrujmy zatem modny obecnie termin trzecia platforma (3P, third platform). Proponuje go firma badawcza IDC [International Data Corporation należy do IDG, będącego wydawcą „Computerworld” – przypis redakcji], w odróżnieniu od pierwszej platformy (IT oparte na dużych komputerach mainframe) i drugiej platformy, bazującej na architekturach klient-serwer oraz początkowych fazach aplikacji internetowych. Przy czym z punktu widzenia biznesowego 3P obejmuje cztery podstawowe składniki:

1. aplikacje mobilne

2. media społecznościowe

3. Big Data

4. kloudonomika (cloudonomics).

Pierwszy i drugi z tych filarów są powszechnie znane i nie wymagają szerszego komentarza. Pokażmy jedynie, w jaki sposób te filary się wykrystalizowały. Otóż urządzenia techniczne mają naturalną tendencję do minimalizowania swoich wymiarów i potrzeb energetycznych (pomijając granice antropomorficzne). A coraz mniejsze komputery, choćby w postaci smartfona, można mieć zawsze przy sobie, w kieszeni czy torebce. Stają się one więc mobilne, a jednocześnie w równie naturalny sposób podlegają trendowi sieciowości (networking). Zaś sieciowość nabiera wymiaru społecznościowego, gdyż człowiek jest istotą społeczną.

Z kolei termin Big Data to uaktualniona wersja klasycznego trójpodziału: dane-informacje-wiedza.

Sieć 5G jako oprogramowanie

W przeszłości ta agregacja, od danych prostych do złożonych, była dziełem człowieka – obecnie to zadanie przejmują maszynowe algorytmy. Już dziś większość powstających danych jest dziełem maszyn, a nie człowieka, celem technologii Big Data jest nadanie temu procesowi wymiaru jakościowego. Stąd Big Data może być definiowana w ramach modelu 4V jako: duże ilości danych (Volume) o znacznej różnorodności (Variety) i zmienności (Velocity) prowadzące do uzyskania nowej wartości (Value) decyzyjnej w odniesieniu do optymalizowanych procesów (biznesowych).

I wreszcie czwarty składnik trzeciej platformy: chmurowość będąca także przedmiotem badań i zastosowań nowej dziedziny wiedzy i technologii, kloudonomiki (cloudonomics). Tu z kolei urzeczywistnia się idea wszechnetu (evernet) – „komputery w każdej klamce i w każdym guziku od koszuli”. W końcu, żeby korzystać z elektryczności, nie musimy mieć w każdym pokoju własnej elektrowni czy spalinowego generatora. Wystarczy gniazdko w ścianie i zawarcie taryfowej umowy z dostawcą usługi. Tę zasadę dostrzeżono także w informatyce. Internetowa chmura (cloud) to usługa, z której można skorzystać za pomocą dowolnego urządzenia (terminala) z dostępem do sieci. Dotyczy to zarówno mocy obliczeniowych, jak i samego oprogramowania – mamy wówczas do czynienia z elastyczniejszym modelem softwarowych opłat licencyjnych.

Aplikacyjnie postrzegane filary 3P mają też po stronie informatycznych megatrendów skojarzoną grupę czterech odpowiedników, które mogą być postrzegane jako katalizatory technologiczne. Z jednej strony jest to więc parakognitywistyka/sztuczna inteligencja, a z drugiej strony wirtualna rzeczywistość/internet rzeczy.

Dekadowe skoki

Będziemy mieli do czynienia ze wstrząsem na rynku telekomunikacyjnym, który różni się od rynku IT. Pierwszy z nich podlega większym i bardziej zcentralizowanym regulacjom o charakterze państwowym. Drugi jest bardziej rozproszony i elastyczny prawnie.

Skoro pierwszym filarem trzeciej platformy są aplikacje wymagające urządzeń mobilnych, to jaki jest stan ich technologicznego rozwoju obecnie? Okazuje się, że mamy do czynienia z dekadowymi skokami – kolejna generacja co 10 lat (tabela 1). Co prawda już przed rokiem 1979, kiedy to japońska firma NTT (Nippon Telegraph and Telephone) uruchomiła pierwszy na świecie standard 1G, istniała zerowa generacja urządzeń mobilnych. Tym mianem określa się radiotelefonię, reprezentowaną przez takie systemy, jak: MTS (USA, 1946), A-Netz (RFN, 1952) czy POSLRS (Post Office South Lancashire Radiophone Service, Wielka Brytania, 1959).

Czy potrzebna nam kolejna generacja mobilnej komunikacji? W lekkoatletycznym sporcie obowiązuje zasada: szybciej, wyżej, dalej. W telekomunikacji triada tych ideałów przyjmuje nieco inną postać: szybciej, wydajniej, energooszczędniej. Ostatni punkt wydaje się mniej znaczący, ale przecież brak zasilania w urządzeniu to krytyczna kwestia warunkująca ciągłość jego działania. I każdy posiadacz komórki, laptopa czy tabletu wie, co znaczy sprawny i lekki akumulator. Ponadto w generacji 5G mówimy o internecie przedmiotów, a więc np. o zmasowanej aktywności autonomicznych i mobilnych maszyn, takich jak: drony, pojazdy czy roboty (przemysłowe, domowe). Dotykamy tu zatem wcześniej wymienionej kloudonomiki oraz kolejnej nowej dziedziny techniki – domotyki (domotics) czyli aplikacji inteligentnego mieszkania (smart home).

Wyobraźnię przyszłych użytkowników 5G rozpalają planowane prędkości transferu danych idące w gigabity; niektóre wskaźniki mówią nawet o pasmach przenoszenia rzędu 50 Gb/s. Przy czym całość ma działać także w ruchu. np. w szybkim pociągu.

Z kolei wydajność 5G to możliwość łączenia się ze sobą wielkiej liczby aplikacji. Przyjmuje się tu wskaźnik 100 urządzeń na metr kwadratowy. Na pierwszy rzut oka taki współczynnik wydaje się olbrzymi – oznaczałoby to tysiące urządzeń w przeciętnej wielkości mieszkaniu. Jeśli jednak wziąć pod uwagę wspomnianą perspektywę „mikroprocesora w każdej cegle” to 100/m2 jest raczej liczbą skromną. Wystarczy zważyć, jak już obecnie najeżone elektroniką są medycyna, motoryzacja, a przede wszystkim zautomatyzowane fabryki. Trzeba także pamiętać, że kreślone z pozornym rozmachem perspektywy technicznych standardów szybko starzeją się często już w początkowej fazie ich realizacji. Tak było ze standardem ISDN (64kb/s) czy tzw. pełną pamięcią komputera osobistego 640 kB, definiowaną w latach 80.

Sieć jako oprogramowanie

Dziś wyobraźnię przyszłych użytkowników 5G rozpalają planowane prędkości transferu danych idące w gigabity. Papier i prezentacyjne slajdy są cierpliwe, więc niektóre wskaźniki mówią nawet o pasmach przenoszenia rzędu 50 Gb/s. Przy czym całość ma działać także w ruchu, np. w szybkim pociągu, takim jak japoński Shinkansen, niemiecki ICE czy francuski TGV, a więc osiągającym prędkość ponad 300 km/h. Przewiduje się błyskawiczne łączenie się urządzeń ze sobą – maksymalna latencja 5 ms. Stabilność połączenia nie mniejsza niż 99,999%. Dodajmy, że ta ostatnia wartość jednak oznacza brak połączenia przez długie pięć minut w skali roku (315 sekund), bo mówimy tu o wielu aplikacjach działających na okrągło. Nie do przyjęcia byłoby, żeby z tego powodu zaczęły nam spadać na głowy transportowe drony czy zawodziły czujniki sterujące rozpędzonym autem. W takim przypadku stosuje się w technice tzw. układy głosujące, wykorzystujące redundancję (nadmiarowość) urządzeń.

Kiedy standardu 5G moglibyśmy „dotknąć“? Zgodnie z dekadową regułą tabeli 1, po roku 2020. Przy czym należy podkreślić, że obecnie pojęcie „standard“ w sensie technicznym, jest używane na wyrost. Ten ma zastać zdefiniowany w najbliższych latach (zapewne jako zbiór standardów). Masowe zastosowania 5G w skali światowej przewiduje się ok. 2040 r., w Unii Europejskiej dekadę wcześniej. Jednak nowa generacja komunikacji mobilnej to nie tylko ilościowe zmiany jej parametrów. Te bowiem przełożą się na potężny skok jakościowy w rozważanej sferze – wręcz zmianę jej paradygmatu. Skalowalne technicznie i ekonomicznie sieci umożliwią ich postrzeganie i konfigurowanie jako rodzaj oprogramowania, a nie sprzętu. Naturalnie ten proces występuje i obecnie – w każdym systemie informatycznym mamy do czynienia z jego warstwą logiczną i fizyczną. Mówimy tu wszakże o jego eskalacji z użyciem takich technologii, takich jak programowalna sieć komputerowa SDN (Software Defined Network) czy zaawansowana wirtualizacja funkcji sieciowych NFV (Network Functions Virtualization).

W praktyce będziemy mieli do czynienia ze wstrząsem na rynku telekomunikacyjnym, który różni się od rynku IT, choć oba są ze sobą powiązane. Pierwszy z nich podlega jednak większym i bardziej zcentralizowanym regulacjom o charakterze państwowym. Drugi jest bardziej rozproszony i elastyczny prawnie. Już dziś istnieją potężne centra chmurowe umożliwiające indywidualny dostęp do mocy procesorów i zasobów pamięci. Natomiast w przypadku sieci mamy do czynienia z systemami bardziej zamkniętymi, dedykowanymi. Wkrótce będziemy je mogli w większym stopniu i szybciej wirtualizować. Dla potężnych telekomów oznacza to wyzwanie podobne do tego, przed jakim w latach 80. XX wieku stanęły klasyczne firmy informatyczne w obliczu tsunami komputerów osobistych.


TOP 200