Czy Google znalazł metodę na zdominowanie globalnego ruchu sieciowego?

Chociaż z drugiej strony, ktoś mógłby zapytać, czy skracanie o 10-20% czasu ładowania stron ma sens, skoro w grę wchodzą dziesiętne sekundy. Otóż ma, ponieważ okazuje się, że przeciętny użytkownik nie jest skłonny oczekiwać na otwarcie strony dłużej niż 3 sekundy. To szczególnie interesująca uwaga dla programistów i właścicieli witryn napisanych w języku Flash, których multimedialny kontent zwykle ładuje się sporo dłużej. Warto też wspomnieć, że w najogólniejszych założeniach sam SPDY przypomina nieco Websockets, który zaimplementowano w HTML5. Nie jest też do końca jasne, czy oba rozwiązania raczej ze sobą rywalizują, czy też się uzupełniają.

Epoka Post-PC

Kolejna część ukrytego potencjału szybszej sieci tkwi już w samym użytkowanym sprzęcie, to znaczy switchach, routerach i innym hardwearze przesyłającym pakiety danych. Problemem tym zajmuje się Open Network Foundation (ONF), która skupia 23 przedsiębiorstwa hi-tech, w tym Facebooka, Cisco, Verizona i... Google. ONF podjęła się stworzenia jednolitego oprogramowania dla wszystkich sieciowych łączników sprzętowych. Projekt ten przyjął nazwę OpenFlow i jest rozwijany na Uniwersytecie Stanforda Uniwersytecie Kalifornijskim.

Problemem łączników jest fakt, że dane przepływają przez nie niezbyt wydajnie. Dzieje się tak z powodu mało inteligentnej infrastruktury i braku globalnej mapy drogowej ruchu sieciowego. Aby to zmienić, naukowcy pracują nad dwuelementowym systemem działającym analogicznie do nawigacji samochodowej oraz inteligentnego drogowego systemu zarządzania ruchem miejskim. Będzie to swoista zielona fala bitów. Pierwszy krok polega na stworzeniu firmware’u i zaimplementowaniu go we wszystkich urządzeniach, które stoją na "skrzyżowaniach" światowego ruchu sieciowego. Oprogramowanie będzie na bieżąco zbierać metadane o stanie obciążenia urządzeń oraz ich sprawności. Metadane trafią do drugiego elementu układanki - inteligentnego systemu operacyjnego, który będzie na bieżąco aktualizował globalną mapę ruchu sieciowego i wybierał dla każdego pakietu danych najlepszą drogę.

Pierwszą oszczędnością wynikającą z zastosowania OpenFlow będzie drastyczne ograniczenie zużycia energii. Jak zapewnia Nick McKeown, profesor Uniwersytetu Stanforda, ilość zbędnych switchów, które będzie można wyłączyć, ograniczy zużycie energii nawet o 60%. Google może zaoszczędzić nie tylko więcej energii, ale przede wszystkim czasu. Okazuje się bowiem, że komunikowanie się pomiędzy serwerowniami to nie lada wyzwanie, nawet dla Google’a. W przypadku zerwania połączenia między dwoma data centers ponowne nawiązywanie łączności może potrwać nawet 20 minut. Z OpenFlow nie powinno zająć to więcej niż kilka sekund. Można wnioskować, że technologia ta pozwoli Amerykanom w znaczący sposób ograniczyć utrzymywanie koniecznych rezerw sprzętowych na wypadek problemów ze wzajemną łącznością serwerowni.

Poza zaangażowaniem w projekty usprawniające istniejące już rozwiązania koncern z Mountain View eksperymentuje z przesyłem danych sieciami światłowodowymi. Robi to z odpowiednim dla siebie rozmachem. Aby mieć pełną kontrolę nad badaniami, wyszukiwarkowy gigant zdecydował o budowie własnej, eksperymentalnej sieci światłowodowej, która będzie dostarczać do pół miliona domów w USA Internet o niebagatelnej prędkości 1 gigabita na sekundę.

I w tym miejscu dochodzimy do punktu, w którym zaczęliśmy, to znaczy do pytania o to, jaki będzie nowy Internet. Pytanie jest o tyle zasadne, że zewsząd słychać głosy o nieprzystawalności protokołu TCP/IP do dzisiejszych przepustowości łączy, wymagań użytkowników i skomplikowanych usług. Właśnie tym Google wraz z Verizonem uzasadniały zastąpienie TCP/IP kolejnym standardem z priorytetyzacją ruchu jako nową zasadą naczelną. Zamiast dotychczasowej, promującej neutralność przesyłanych pakietów danych.


TOP 200