Redundancja - zbyt wiele połączeń obniża poziom bezpieczeństwa?

W przypadku łączenia sieci komputerowych czy innych systemów, ważne jest uniknięcie tzw. pojedynczych punktów awarii. To, że redundancja jest kluczowa wydaje się oczywiste, jednak zdaniem naukowców przesada z nią, zamiast podnieść poziom bezpieczeństwa, obniży go.

Odporność internetu wynika w dużej mierze z wielu redundantnych połączeń. Wydawałoby się, że im większą liczbą niezależnych połączeń dysponujemy między sieciami, tym lepiej zabezpieczona będzie komunikacja między nimi. Jednak, jak przekonuje Charles Brummit - matematyk z Uniwersytetu Kalifornijskiego w Davis, którego zespół badawczy przeanalizował ten problem, administratorzy i inżynierowie sieciowi powinni starannie przyjrzeć się liczbie połączeń między sieciami. Jeśli będzie ona zbyt duża może to oznaczać nie mniejsze - ale większe ryzyko awarii, gdyż błędy z jednej sieci będą łatwo przenosiły się kaskadowo do następnych.

Naukowcy zbudowali model matematyczny opisujący pracę zbioru systemów. Rozważyli szerszy problem, analizując zachowanie sieci złożonych z sieci. Wzajemnie połączone sieci mogą być podatne na błędy kaskadowe, w których, w razie awarii bądź przeciążenia jednej sieci, problem może się przenieść na kolejną sieć. W typowym scenariuszu, jeśli jedna sieć jest przeciążona, ruch kierowany jest do kolejnej, co pomaga odciążyć sieć, w której pojawiły się problemy. Jeśli jednak awaria jest wystarczająca by zalać ruchem pierwszą sieć, może również całkowicie zablokować kolejną.

"Otwarte połączenia między sieciami dają pewne korzyści. Jeśli nasza sieć jest mocno obciążona, sąsiednia może pomóc obsłużyć nadmiarowy ruch. Z drugiej jednak strony, w pewnych przypadkach sąsiednia sieć może być niestabilna i połączenie z nią może tylko pogorszyć nasze problemy. Jest gdzieś kompromis - próbujemy go znaleźć i określić poziom współzależności między sieciami, który minimalizuje ryzyko dużych, rozprzestrzeniających się awarii."

Wstępna wersja publikacji naukowców dostępna jest w formie PDF w serwisie ArXiv. Początkowo zajęto się spiętymi ze sobą sieciami energetycznymi, ale, jak zapewniają autorzy, wyniki badań są również prawdziwe dla połączonych ze sobą systemów komputerowych. Praca może wpłynąć na sposób myślenia nad podejściem do ataków DDoS, które mogą unieruchomić pojedyncze serwery i sąsiadujące routery, powodując przekierowanie ruchu do sąsiednich sieci. Wyniki badań naukowców należy także rozważyć w kontekście równoważenia obciążenia między wieloma usługami cloud computing.

"Jako pierwsze teoeretyczne podejście do tego typu problemów - jest to interesująca praca" - komentuje Cris Moore, profesor wydziału nauk komputerowych Uniwersytetu w New Mexico. Moore nie brał udziału w tym projekcie badawczym. "Znaleźli złoty środek między niewystarczającą a zbyt dużą liczbą wzajemnych połączeń. Jeśli dysponujemy pewną liczbą połączeń między klastrami, lecz nie jest ich zbyt wiele, wówczas mogą one [klastry] pomagać sobie wzajemnie w rozłożeniu obciążenia bez powodowania lawiny zalewającej kolejne z nich."

Największą siecią złożoną z sieci jest oczywiście internet. Główni operatorzy wymieniają się ruchem (tzw. peering) bądź łączą swoje sieci razem. Pozwala to na łatwe docieranie ruchu od źródła do celu. Wiele zrobiono dla uczynienia internetu odpornym na katastrofy. Nota bene, odporność na nie była podstawowym założeniem przy jego projektowaniu. Czy w świetle nowej pracy internet jest jednak tak odporny jak się to nam wszystkim wydaje?

Zdaniem Brumitta jest to niełatwe pytanie i trudno spekulować jaka powinna być na nie odpowiedź, bo już samo zrozumienie struktury internetu jest skomplikowanym problemem. Jednak i on przyznaje, że dotychczasowe doświadczenia nie wykazały by nie radził on sobie z awariami w jego poszczególnych miejscach.

Czy praca matematyków jest więc kolejnym czysto akademickim rozważaniem?

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200