Najbliższe 10 lat

Mikrokomputerowy boom lat osiemdziesiątych sprawił, że aktualne stało się pytanie o przyszłość wielkich komputerów. Czy będziemy świadkami ich zmierzchu, czy też duże maszyny umocnią swoją pozycję, wychodząc naprzeciw rosnącym potrzebom szybkiej, bezpiecznej i niezawodnej wymiany informacji? Według International Data Corporation (IDC) - instytucji zajmującej się analizą rynku informatycznego na świecie - świat interesu właśnie w dużych komputerach znajdzie moc obliczeniową potrzebną do zarządzania informacja w sieciach komputerowych o światowym zasięgu.

Mikrokomputerowy boom lat osiemdziesiątych sprawił, że aktualne stało się pytanie o przyszłość wielkich komputerów. Czy będziemy świadkami ich zmierzchu, czy też duże maszyny umocnią swoją pozycję, wychodząc naprzeciw rosnącym potrzebom szybkiej, bezpiecznej i niezawodnej wymiany informacji? Według International Data Corporation (IDC) - instytucji zajmującej się analizą rynku informatycznego na świecie - świat interesu właśnie w dużych komputerach znajdzie moc obliczeniową potrzebną do zarządzania informacja w sieciach komputerowych o światowym zasięgu.

Globalny skarbiec danych

Typowe przedsiębiorstwo lat dziewięćdziesiątych będzie przedsiębiorstwem globalnym. Jego zarząd może znajdować się na wschodnim wybrzeżu USA, produkcja będzie odbywać się na przykład w Azji, a zamówione u kontrahenta projekty będą wykonywane w Irlandii. Przypuśćmy ponadto, że pracę biur handlowych, rozrzuconych po całym świecie, koordynuje centrala w San Francisco i że centrum badawczo-rozwojowe jest w Niemczech. Niezakłócony i bezpieczny przepływ danych między odległymi działami takiej firmy nie będzie możliwy bez połączenia ze sobą wielu systemów informacyjnych i sieci komputerowych, podlegających różnym w różnych krajach ograniczeniom prawnym i użytkowym. Rolę centrów zarządzających pracą poszczególnych systemów i sieci, a zarazem łączących je ze sobą, będą pełniły duże komputery. Będą one globalnymi skarbcami danych, gdyż zapewnią ochronę i wymianę informacji we współdziałających ze sobą systemach baz danych dostępnych praktycznie z każdego punktu kuli ziemskiej. Efektem tego będzie znaczne zintegrowanie różnych baz danych, a także inne niż dziś rozłożenie wydatków pomiędzy sprzęt, oprogramowanie i personel.

Dlaczego duże komputery?

Komputery osobiste rzuciły wyzwanie dużym komputerom: od kiedy weszły na rynek na początku lat osiemdziesiątych, nie brak było opinii, że ich rozwój doprowadzi z czasem do śmierci dużych maszyn. Prawdą jest, że przyrost mocy obliczeniowej mierzonej liczbą operacji na sekundę był znacznie szybszy w wypadku komputerów osobistych niż dużych maszyn i że głównie z tego powodu w niektórych zastosowaniach komputery osobiste przejęły inicjatywę. Dotyczy to zwłaszcza względnie samodzielnych zadań, np. przetwarzania tekstów, wypełniania arkuszy obliczeniowych czy pisania programów użytkowych. Dla niespecjalisty istotne jest, że obsługi komputera osobistego łatwiej się nauczyć, łatwiej go instalować i używać. Nie bez znaczenia jest w końcu niska cena mikrokomputera w porównaniu z jego mocą obliczeniową.

Z drugiej strony nie należy przeceniać możliwości komputerów osobistych. Liczne są złe doświadczenia firm, które zleciły przesunąć swoje obliczenia z dużych komputerów na małe: niedostateczne bezpieczeństwo przesyłania danych w lokalnej sieci komputerowej i trudności w zarządzaniu siecią oraz naprawianiu awarii w wielu wypadkach zmusiły zleceniodawców do szybkiego powrotu do dużych maszyn. Ograniczenia lokalnych sieci komputerowych i wynikające z nich warunki organizacji przedsiębiorstwa wciąż jednak nie są dostatecznie uświadamiane. Warto pamiętać w szczególności o następujących czynnikach, które zadecydują, że nie małe, lecz tylko duże komputery będą mogły sprostać rosnącym potrzebom wymiany informacji w najbliższym dziesięcioleciu. • Komputerów o wielkiej mocy obliczeniowej nie można efektywnie zastąpić przez stopniowe łączenie mikroprocesorów. Dotyczy to zwłaszcza sterowania przepływem danych w sieciach.

• Mechanizmy ochrony danych przed dostępem niepowołanych osób są w dużych komputerach pewniejsze i bardziej zaawansowane niż w małych.

• Dla dużych maszyn opracowywano przez lata metody i programy tworzenia zapasowych kopii zbiorów danych, umożliwiające odzyskanie informacji w razie awarii systemu. Odczuwalny jest brak podobnych narzędzi dla sieci łączących mniejsze komputery.

• Duże komputery umożliwiają automatyczne kierowanie urządzeniami zapisu danych i ich współdziałanie. Dostarczają też innych środków koniecznych do prowadzenia interesów w skali światowej.

• W dużych komputerach dostępne są narzędzia kontroli i pielęgnacji danych, programów użytkowych i systemów operacyjnych.

Potrzeby lat dziewięćdziesiątych

W minionym dziesięcioleciu nastąpiło przeobrażenie dotychczasowego układu komputer-użytkownik. Podział na duże maszyny, minikomputery i mikro- komputery stracił na ważności wobec nowego podziału na usługi obliczeniowe świadczone przedsiębiorstwom i usługi świadczone grupom użytkowników. Orientacja na komputer ustąpiła więc miejsca orientacji na użytkownika. W nowym układzie komputer-użytkownik duże maszyny będą odgrywać czołową rolę.

Do przeszłości należą już czasy, gdy w firmach zajmujących się komercyjnie przetwarzaniem danych normą był roczny przyrost zatrudnienia rzędu 15% i odpowiedni do tego wzrost wydatków na płace. Obecnie raczej redukcje personelu są na porządku dnia. Zarazem nie maleje, lecz wzrasta złożoność obliczeniowa zadań do wykonania. W tej sytuacji producenci komputerów będą znajdować się pod stałą presją użytkowników zainteresowanych kupnem coraz to efektywniejszych maszyn i systemów informacyjnych.

Najbliższe dziesięć lat będzie charakteryzować się też rosnącą specjalizacją sprzętu komputerowego. Już obecnie w handlu i bankowości duże komputery są wykorzystywane do bardzo specyficznych zadań, takich na przykład jak obsługa automatycznej kasy bankowej, konwersacyjne przetwarzanie zleceń czy też przetwarzanie wsadowe. Nierzadkie będą sytuacje, w których jedna firma będzie używać specjalizowanych procesorów pochodzących od różnych wytwórców. Jak utrzymać i obsłużyć ten różnorodny sprzęt z pomocą ograniczonego personelu - oto zadanie do rozwiązania

Rynek dużych komputerów

Według niedawnych badań ankietowych przeprowadzonych przez IDC, 58% firm posiadających duży komputer klasy IBM 3090 zamierza w ciągu najbliższych trzech lat kupić inną dużą maszynę IBM. 19% rozważa kupno komputera kompatybilnego z IBM, lecz innej produkcji. Pozostałe 23% obecnych użytkowników dużych maszyn IBM myśli o kupnie komputera niezgodnego sprzętowo z dotychczas używanym. IDC przewiduje na tej podstawie umiarkowany, lecz stały wzrost sprzedaży dużych maszyn rzędu 5% do 7% rocznie.

Przodujący w produkcji dużych maszyn IBM stracił część rynku na rzecz producentów sprzętu kompatybilnego, zwłaszcza Amdahl i Hitachi Data Systems (HDS). Jeszcze jesienią zeszłego roku akcje na rynku dużych komputerów podzielone były w następujący sposób między czołowych wytwórców:

IBM.............

Unisys ............17%

Amdahl ........... 9%

Hitachi Data Systems .... 3%

BullHW........... 2%

ControlData ........ 1%

Kampanię reklamową zaostrzyła jednak firma HDS, anonsując swój model EX/420 jako najszybszy procesor przemysłowy, którego możliwości oceniane są na 150 mips (czyli milionów operacji na sekundę). Amdahl, Fujitsu i IBM odpowiedziały wkrótce własną ofertą. Nowe komputery obiecują więcej niż poprzednie, a jeszcze więcej nowych rozwiązań można spodziewać się w ciągu kilku nstępnych lat. Stosunkowo najwięcej w walce o rynek zyskało Hitachi Data Systems: 16% uczestników wspomnianej ankiety stwierdziło, że ich firmy planują kupić zgodny z IBM komputer od HDS.

Istotnie zmieniły się ceny dużych maszyn. Nie dalej niż pięć lat temu cena dużego komputera nie przekraczała 6 milionów USD, podczas gdy dziś górna granica cen wynosi ponad 24 milionyUSD i będzie podnosić się. Te astronomiczne koszty nie mogą oczywiście powstrzymać największych firm od kupna dużego komputera, gdyż w przeciwnym razie część rynku zabierze im konkurencja. Dzięki konsolidacji sprzętu i mocy obliczeniowej duże maszyny mogą być jednak źródłem o-szczędności. Wydatki można ograniczyć też, kupując sprzęt, którego cena obejmuje licencjonowane oprogramowanie.

Rozwój technologii

Oszałamiający rozwój technologiczny nastąpił w latach osiemdziesiątych i będzie trwał w bieżącym dziesięcioleciu. Szybkość procesorów, zarówno w dużych maszynach, jak i w komputerach osobistych, zwiększała się ostatnio tak radykalnie, że obecnie jej przyrost o 25% do 30% rocznie jest uważany za rzecz normalną. Procesory ogólnego przeznaczenia pracują dziś z szybkością od 150 do 210 mips i prawdopodobnie osiągną 300 do 500 mips do roku 1995. Fujitsu, czołowy japoński producent dużych komputerów, zapowiada nawet procesor działajacy z szybkością 600 mips, choć nie wiadomo jeszcze, kiedy znajdzie się on na rynku. Nie ma na razie wielu programów wymagających tak szybkich maszyn ani nawet programów, które umiałyby w pełni wykorzystać ich moc obliczeniową. Najszybsze procesory są wykorzystywane najczęściej do celów militarnych. Pojawiły się jednak już zastosowania komercyjne dla komputerów o bardzo dużej mocy. Biorąc pod uwagę sumy, jakie ich użytkownicy będą musieli wydać, nie należy się dziwić, jeśli komputery te będą konfigurowane niezależnie dla każdego odbiorcy.

Osiągnięcia w konstrukcji procesorów to także udoskonalone listy rozkazów sterujących ich działaniem. Przykładem są komputery o zredukowanej liście rozkazów (reduced instruction set Computers, RISC) i komputery o skalowanych procesorach (scalable pro-cessor architecture, SPARC). Szerszego wykorzystania technologii RISC i SPARC w klasie dużych maszyn można spodziewać się dopiero po roku 1995. Mimo postępów w miniaturyzacji sprzętu komputerowego nie należy też wkrótce oczekiwać znacznego zmniejszenia gabarytów dużych maszyn. Jedno spojrzenie do wnętrza dużego komputera pozwala dostrzec, ile wolnego miejsca pozostawia się dla ułatwienia dostępu.

Zdobycze technologiczne pozostawiają mimo wszystko uczucie zawodu, gdy porówna się zdolność komputera do „rozgryzania" danych z jego zdolnością do przesyłania ich w układach wejścia i wyjścia. Jednostki centralne po prostu nie są w stanie przekazywać danych na zewnątrz tak szybko, jak je przetwarzają. Cykl pracy procesora jest mierzony w nano-sekundach (czyli w jednomiliono-wych częściach sekundy), podczas gdy układy wejścia i wyjścia działają z szybkością wyrażaną w milisekundach (jednotysięcznych częściach sekundy). Jeśli założyć - dla lepszego uzmysłowienia sobie tej różnicy - że nanosekunda jest równa godzinie, to milisekunda będzie trwać około 41 dni.

Różnica między wydajnością jednostki centralnej a wydajnością układów wejścia i wyjścia pozostaje znaczna nawet w nowym systemie łączności światłowodowej (Enterprise System Connection Architecture, ESCON) wprowadzonym przez IBM. System ten pozwala, by urządzenia zewnętrzne o bezpośrednim dostępie do danych (direct-access storage devices, DASD) znajdowały się w odległości do pięciu mil od jednostki centralnej zamiast, jak dotychczas, w odległości kilkuset metrów. Umożliwia on też transmisję danych z szybkością 10 milionów bitów na sekundę. Choć jest to dużo, daleko stąd jeszcze do szybkości jednostki centalnej.

Dążenie do niezawodności

Jak wskazują ankiety, oczekuje się, że liczba wezwań serwisu technicznego i użytkowego do dużych komputerów spadnie do roku 2000 z 1,5 do 0,6 na miesiąc.

Użytkownicy będą wymagać więc większej niezawodności w zastosowaniach takich, jak rezerwowanie biletów lotniczych, operacje bankowe czy przetwarzanie kart kredytowych. Choć większość używanych dziś dużych maszyn nie zapewnia bezbłędnej pracy, niektórzy producenci specjalnie projektują swoje komputery tak, aby gwarantowały one stuprocentową niezawodność. Z całą pewnością popyt na takie maszyny będzie wzrastać.

Przykład kart kredytowych dowodzi, że niezawodność dużych komputerów jest na wagę złota. Badania pokazały bowiem, że jeśli akceptacja karty kredytowej przez komputer trwa dłużej niż 15 sekund, klient zaoferuje inną kartę. Traci oczywiście wystawca karty kredytowej. Producentów dużych komputerów zachęca więc fakt, że towarzystwa kredytowe zazwyczaj kupują taki sprzęt, który gwarantuje im najkrótszy czas odpowiedzi na zgłoszenie właściciela karty.

Komputer „logiczny"

24 godziny na dobę, 7 dni tygodniowo, 365 dni rocznie - oto typowy plan wykorzystania komputera w większości dużych przedsiębiorstw mających napięty harmonogram pracy. Sytuacja taka sprzyja rozwojowi tego, co IDC nazywa „kompleksami rozproszonych ośrodków obliczeniowych" (distributed data center comple-xes). Kompleksy takie to zespoły odległych geograficznie ośrodków obliczeniowych, z których każdy połączony jest z pozostałymi i może korzystać z ich pamięci operacyjnych, pamięci zewnętrznych i innych zasobów komputera. Liczba jednostek centralnych w obrębie kompleksu jest obecnie ograniczona do ośmiu, lecz może osiągnąć 24 do roku b1995. Przepływem danych między jednostkami centralnymi steruje wydzielony procesor, który tym samym pełni rolę dużego komputera. Jest to zatem komputer „logiczny", a nie fizyczny.

Systemy doradcze

Aby zarządzać przetwarzaniem informacji w skali dużego przedsiębiorstwa, komputery w przyszłości będą wymagać więcej specjalistycznej wiedzy, niż mógłby jej dostarczyć jeden człowiek. Wiedzy tej dostarczą systemy doradcze działające na dużych komputerach. Będą one kierować pracą ośrodków obliczeniowych, podejmując tysiące decyzji w ułamku sekundy. Bez systemów doradczych optymalne wykorzystanie zasobów ośrodka obliczeniowego stanie się wkrótce niemożliwe: złożoność zadań do wykonania przekroczy możliwości kwalifikowanego personelu. Według wspomnianych badań ankietowych IDC, przenośność oprogramowania i możliwość łatwego łączenia sprzętu zaliczane są do najpilniejszych zadań, czekających na rozwiazanie w najbliższym dziesięcioleciu. Zorientowane obiektowo środowiska używane przez systemy doradcze zwiększają stopień przenośności programów i ułatwiają łączenie urządzeń pochodzących od różnych wytwórców. Dzięki temu wiedza nagromadzona w systemach doradczych może być udostępniona zainteresowanym odbiorcom.

Urządzenia zewnętrzne

Gdy mowa o dużych komputerach, określenie „zewnętrzny" odnoszone jest zwykle do stacji dysków, taśm i do drukarek. Choć pełnią one ważną rolę, trzeba pamiętać też o komputerach osobistych i o węzłach w sieci, pilnie upominających się o dane, którymi zarządza duży komputer.

Respondenci ankiet spodziewają się, do roku 1995 liczba użytkowanych pamięci zewnętrznych

0 bezpośrednim dostępie wzrośnie o 61%, a liczba pamięci taśmowych aż o 119%. Oczekuje się przede wszystkim szerszego zastosowania małych pamięci taśmowych w kasetach. Spośród ich licznych zalet najważniejsza jest możliwość automatycznego zakładania kaset za pomocą urządzenia zwanego potocznie szafą grającą lub karuzelą. Urządzenie to może działać praktycznie bez nadzoru personelu ośrodka obliczeniowego.

Mniejsze zainteresowanie w środowisku użytkowników dużych maszyn wywołują dyski optyczne, pozwalające na jednokrotny zapis i wielokrotne odczytywanie informacji. Na razie stosuje się je m.in. do przetwarzania obrazów

i wymiany mikrofiszek. Można oczekiwać, że wykorzystanie dysków optycznych będzie wzrastać w miarę postępów w technologii, lecz nie na wielką skalę. W roku 1989 urządzenia te stanowiły mniej niż 5% dysków sprzedanych dla dużych komputerów.

Światłowody w centrum komunikacji

Potrzeba konwersacyjnego przetwarzania zleceń dała począ-tek z jednej strony nowego typu pamięciom o bezpośrednim dostępie (direct-accessstorage devi-ces. DASD), z drugiej zaś przyspieszyła wykorzystanie techniki światłowodowej. Wewnętrzne łącza światłowodowe w komputerze i sieci komputerowe oparte na światłowodach pozwalają bezpiecznie przesyłać ogromne ilości informacji na duże odległości. Sprzyja to rozwojowi komputerom „logicznych", łączących jednostki centralne w odległych od siebie ośrodkach obliczeniowych, a także ułatwia naprawę skutków awarii systemu.

Systemy operacyjne: spoiwo

Ponieważ moc obliczeniowa dużych komputerów jest coraz większa, systemy operacyjne muszą dotrzymać im kroku. Muszą ć one łatwe w obsłudze, gdyż przeciwnym razie wyrafinowane możliwości sprzętu nie będą w pełni wykorzystywane. Muszą być ponadto łatwe w instalacji i niezawodne, odporne na praktycznie wszelkie sytuacje błędne. W tym kierunku idą nowe systemów operacyjnych pochodzących od IBM, Digital

Equipment Corp. i innych produ centów. Choć każdy rok przynosi nowe rozwiązania, badania ankietowe wskazują, że w ciągu najbliższych pięciu lat respondenci nadal spodziewają się używać systemów pochodzących od IBM. W połowie dekady oczekują też pojawienia się nowego systemu operacyjnego.

Prognozy dla Unixa System operacyjny Unix, zbudowany pod koniec lat sześćdziesiątych w Bell Laboratories, jest znany z elastyczności, z jaką wspiera łączność telefoniczną na duże odległości. Ten prosty, ale bardzo mocny system zaprojektowano tak, by wykazywał dużą odporność na sytuacje błędne. Zalety Unixa uznała większość producentów dużych komputerów, umożliwiając korzystanie z niego (lub z systemów wywodzących się od Unixa) w niektórych swoich modelach.

Zdania na temat Unixa są jednak podzielone. Te same cechy, które czynią go odpornym na błędy, ograniczają jego zastosowania komercyjne. Szczególnie istotny jest przy tym brak dostatecznego zabezpieczenia danych. Długoletni użytkownicy dużych maszyn twierdzą też, że Unix jest systemem zbyt ubogim. Inni natomiast uważają, że jego prostota jest jego zaletą: brak skomplikowanych programów narzędziowych zmusza do korzystania z prostych konfiguracji sprzętowych, co z kolei może być źródłem oszczędności finansowych.

Ogólne wrażenie jest takie, że Unix nie stał się jeszcze systemem w pełni funkcjonalnym i zorientowanym na zastosowania komercyjne. Mało kto wątpi, że może on takie cechy osiągnąć. Co więcej, 15% respondentów rozważa obecnie wprowadzenie Unixa do swoich ośrodków obliczeniowych. Jednakże już tylko 4% respondentów ma zamiar podjąć taką decyzję w następnych pięciu latach.

Programy użytkowe: czynnik rozwoju

Programy użytkowe będą nadal motorem zmian prowadzących do konstruowania coraz to szybszych maszyn. Lata dziewięćdziesiąte przyniosą nowe języki programowania i nowe narzędzia, które zdecydowanie skrócą czas potrzebny do uruchomienia nowych programów. Rewolucja nie nastąpi jednak z dnia na dzień: według badań IDC, 92% ankietowanych przedsiębiorstw używa ciągle Cobolu. Ocenia się, że napisane w tym języku programy znajdujące się nadal w użyciu zajmują łącznie około 100 miliardów linii kodu.

Prognozy przewidują, że za pięć lat Cobolem będzie posługiwać się już tylko 56% firm, a za dziesięć lat 35%. Nawet wówczas będzie on jednak prowadził przed PI/1 i C. Tę pozycję Cobol zawdzięcza ogromnej pracy włożonej w napisanie w nim licznych programów dostępnych w bibliotekach oprogramowania. Z drugiej strony te właśnie programy wielokrotnie sztukowane stosownie do potrzeb, często pozbawione dokumentacji lub istniejące tylko w postaci kodu maszynowego - utrudniają dziś użytkownikom przejście do bardziej efektywnych języków programowania. Obecnie 57% respondentów używa języków czwartej generacji lub też wprowadza je do użytku. Oczekuje się, że wskaźnik ten wzrośnie nieco w ciągu najbliższych pięciu lat.

Diagnostyka i oprogramowanie

Sprzęt i oprogramowanie będą w przyszłości silniej związane niż dzisiaj. Ponieważ ceny sprzętu spadają o co najmniej 25% rocznie, jego oferta będzie dostosowana do pożądanego przez użytkowników oprogramowania. Już teraz producenci zdają sobie sprawę z tego, że sprzedawanie samego sprzętu jest najkrótszą drogą do nieszczęścia. Aby utrzymać się na rynku, większość z nich będzie łączyć w swojej ofercie komputery i oprogramowanie.

Integracja sprzętu i oprogramowania nastąpi także w zakresie usług serwisowych. Respondenci ankiet w 82% przyznają, że zainstalowali w swoich komputerach programy diagnostyczne. Choć w ogólności dostępnych jest wiele programów tego rodzaju, te, które instalowane są w dużych komputerach, mogą zauważyć niebezpieczeństwo awarii, zanim osiągnie ona jeszcze fazę krytyczną. Co więcej, programy te mogą wezwać przez modem serwis producenta, a nawet zlokalizować prawdopodobne miejsce uszkodzenia i określić części wymagające wymiany.

IDC przewiduje, że do roku 1995 zaawansowane programy diagnostyczne działające pod kontrolą jednego procesora będą umiały pomóc w rozwiązaniu problemów związanych z innym procesorem. Automatyczne wykrywanie i naprawianie błędów w pracy układów scalonych, kanałów i urządzeń zewnętrznych będzie kluczem do zbudowania systemów o stuprocentowej niezawodności.

Szok przyszłości

Szeregowi użytkownicy komputerów stają się coraz lepiej zorientowani w ich możliwościach. Coraz wyraźniej uświadamiają sobie potencjał tkwiący w ośrodkach obliczeniowych i będą domagać się, by go im udostępniono. Nie jest to nierealistyczne żądanie, jeśli zważyć, że zgłaszają je ci, którzy płacą podatki. Ośrodki obliczeniowe znajdą się więc pod presją oczekiwań, które będą musiały zaspokoić. Wymierne standardy określą poziom usług, zmuszając usługodawców, by przestrzegali ustalonych warunków.

W okresie tym zmieni się rola specjalistów w zakresie systemów informacyjnych dużych komputerów. Organizacje i przedsiębiorstwa będą zatrudniać ich jako doradców, podczas gdy technicy zajmą się szkoleniem i konfiguro waniem sprzętu na zamówienie poszczególnych użytkowników, stosownie do ich potrzeb. Oprogramowanie będzie wspierać operatorów systemowych w kierowaniu pracą systemów informacyjnych. Powstanie też nowa specjalność zawodowa: zapobieganie problemom. Instytucji nie stać będzie już bowiem na rozwiązywanie problemów; problemom trzeba będzie zapobiegać zawczasu.

Era samokierujących się systemów nie jest odległa. Systemy XXI wieku będą tak skomplikowane, że będą musiały same kontrolować swoje działanie. Duży komputer roku 1999 będzie miał pod kontrolą główną konsolę. Będzie kierował systemem tak, by zachować stabilność określoną przez „operatora". Tym operatorem może być inny komputer, oddalony o tysiące kilometrów.


TOP 200