P2P na dobre i na złe

P2P to nie tylko narzędzie piratów

Chociaż peer-to-peer kojarzy się z niekoniecznie legalnym pobieraniem filmów czy muzyki, technologia ta jest znakomitym udogodnieniem w udostępnianiu dużych plików, takich jak dystrybucje Linuksa. Z drugiej strony przykład iTunes pokazuje, że ludzie są skłonni płacić rozsądną cenę za muzykę oferowaną online, nie będą więc pewnie mieli nic przeciwko kupowaniu filmów jakości HD, jeśli tylko będą proponowane po przystępnych cenach, zaś technologia peer-to-peer pozwoli efektywnie udostępniać coraz większe ilości danych.

Najistotniejsze dla rozwoju peer-to-peer koncepcje powstały w ramach prac powołanej przez DCIA grupy roboczej P4P, w skład której wchodzą takie firmy, jak: Verizon, AT&T, Comcast, BitTorrent czy Pando, ale także np. zrzeszenie MPAA (Motion Picture Association of America), dbające o interesy amerykańskiego przemysłu filmowego.

P2P na dobre i na złe

Peer-to-peer to nie tylko samo zło

Rezultaty przeprowadzonych testów opracowanego przez naukowców Yale University eksperymentalnego oprogramowania P2P pokazują, że nowe rozwiązanie powinno wyeliminować wiele bolączek tradycyjnych platform peer-to-peer. Dotychczas klient czerpał dane ze wszelkich dostępnych miejsc, nie bacząc na to, czy robi to z komputera obok, czy z drugiego końca świata. Nowe rozwiązanie zwraca uwagę na topologię sieci. Architektura P4P wnosi do sieci nowe komponenty serwerów iTracker, dzięki którym uwzględniana jest metryka i kojarzone są komputery znajdujące się najbliżej.

Najprościej rozwiązanie zilustruje przykład przytoczony przez Haiyong Xie, pracującego nad rozwojem tego oprogramowania w ramach studiów doktoranckich:

"Przypuśćmy, że mamy stacje uczestniczące w wymianie P2P, rozlokowane w trzech różnych miastach - Nowym Jorku, Bostonie i Waszyngtonie. Po przeanalizowaniu mapy topologii sieci iTracker może zasugerować appTrackerowi, że optymalnym rozwiązaniem będzie wymiana między użytkownikami z Nowego Jorku i Waszyngtonu przez 90% czasu, i przez pozostałe 10% - z tymi z Bostonu".

To tylko jeden z projektów realizowanych w ramach grupy P4P. Innym przykładem jest zaprezentowany przez firmę Velocix hybrydowy protokół P2P do obsługi transmisji wideo, oparty zarówno na tradycyjnej wymianie peer-to-peer, jak i treści buforowanych w ramach CDN (Content Delivery Network). System bazuje początkowo na wielu serwerach cache, ale transmisja może być dodatkowo wspierana przez udostępnianie peer-to-peer. Firma PerApp, oferująca rozwiązania dla szerokopasmowych mediów, rozwinęła protokół buforujący zawartość P2P na brzegu sieci, co powinno pomóc dostawcom usług internetowych nieco odciążyć swoje sieci w godzinach szczytu. Dzięki temu rozwiązaniu użytkownicy peer-to-peer mogą pobierać swoje pliki z serwerów buforujących, zamiast wyłącznie od użytkowników z innych sieci.

Zdaniem Mike'a MCGuire'a, analityka Gartnera, tego typu rozwiązania będą wsparciem dla wzrostu technologii P2P i zachęcą większą liczbę dostawców usług internetowych do tolerowania ogromnych ilości plików udostępnianych w swoich sieciach. W miarę rozwoju technologii P2P dostawcy internetu będą postrzegali ją bardziej jako ważne narzędzie do dystrybucji treści, niż zagrożenie dla swoich sieci.

Co dalej z P2P?

Jak widać z badań przeprowadzonych przez ipoque, peer-to-peer potrafi "zjadać" ponad połowę pasma, a w nocy nawet 95%. Ten potężny ruch jest generowany przez zaledwie 20% internautów. Z drugiej strony badania wykonane na zamówienie firmy D-Link pokazują, że internet bez tych "darmowych" danych byłby mniej atrakcyjny i ich brak wpłynąłby na ich decyzję o obniżeniu parametrów bądź rezygnacji z łącza. Zresztą problemy Comcast z FCC i to, jak praktyki operatora zostały szybko nagłośnione przez prasę, pokazują brak akceptacji dla eliminacji czy ograniczania P2P. Wspólne prace dostawców usług internetowych i developerów pracujących w ramach P4P rokują szanse na rozwiązania mniej eksploatujące sieć.


TOP 200