Technika dla każdego

Zauroczeni wykładniczym wzrostem czysto technicznych parametrów informatycznego rozwoju nie zawsze dostrzegamy, iż jego hamulcem mogą być czynniki pozatechniczne. Jednym z nich jest przyjazność technologii IT dla użytkownika.

Zauroczeni wykładniczym wzrostem czysto technicznych parametrów informatycznego rozwoju nie zawsze dostrzegamy, iż jego hamulcem mogą być czynniki pozatechniczne. Jednym z nich jest przyjazność technologii IT dla użytkownika.

Czy informatyka mogłaby rozwijać się szybciej? Tak postawione pytanie brzmi wręcz prowokacyjnie. W końcu technologia informatyczna należy do najdynamiczniejszych obszarów naszej cywilizacji. Lepsze jest wszakże wrogiem dobrego, więc i w tej dziedzinie postęp mógłby być większy. Jeżeli większość światowej wymiany danych stanowi przesyłanie plików filmowych (nawet do 90%), to żądania zwiększenia przepustowości Wszechsieci są jak najbardziej uzasadnione. Pojawiają się nawet głosy, że paradoksalnie gwałtowny przyrost ilości szybkich łączy internetowych może wręcz doprowadzić do załamania się całego Internetu.

Tak skrajne prognozy należy uznać jednak za przesadzone. Groźba taka jest w praktyce wykluczona dla klientów biznesowych, zwłaszcza gotowych zapłacić więcej za wyższą jakość połączeń. Z kolei w sferze prywatnej już teraz nominalna szybkość Sieci jest jedynie wartością teoretyczną, znacznie przewyższającą uzyskiwane osiągi, w zależności od pory doby czy liczby użytkowników oraz rodzajów uruchamianych aplikacji, które mogą być mniej lub bardziej "sieciożerne".

Przeciętny użytkownik nie powinien się obawiać, że cywilizacyjny postęp ulegnie zahamowaniu wskutek zablokowania się Internetu. Zwłaszcza jeżeli mamy do czynienia ze zdemonopolizowanym rynkiem usługodawców oraz rosnącą liczbą sieciowych technologii dostępowych. Dziś nie musi to być już tylko poczciwe gniazdko telefoniczne, będące źródłem klasycznego, analogowego sygnału modemowego, ISDN czy różnych wariantów DSL. Dostęp do Internetu może odbywać się za pośrednictwem infrastruktury telewizyjnych "kablówek" czy łączy satelitarnych (szybki download). Jeszcze inną możliwością jest "Internet z prądem", czyli przy użyciu zwykłych gniazdek sieci elektrycznej (powerline). Ale technika informatyczna to nie tylko szybkość połączeń sieciowych. To także sprzęt komputerowy.

Procesory i spółka

Czy w tym obszarze możemy znaleźć jakieś "wąskie gardła" o uniwersalnym znaczeniu dla informatycznego rozwoju? Czy procesory nie są zbyt wolne? Pytanie można by uznać za retoryczne albo skwitować je pobłażliwym uśmieszkiem. Oczywiście że procesor nigdy nie jest za szybki, a dla specyficznych aplikacji czasu rzeczywistego zawsze da się go spowolnić. Badania psychologiczne pokazują, że granicą tolerancji użytkownika na czas reakcji komputera są dwie sekundy. Wszystko co w systemie dialogowym trwa dłużej, wydaje się być zbyt wolne.

Wąskim gardłem komputera może być dysk twardy - jeśli mamy na nim zbyt mało miejsca, to po prostu program nie da się zainstalować. O wiele bardziej krytyczne znaczenie ma jednak pamięć operacyjna. Tej zawsze jest za mało. W idealnym przypadku pamięć operacyjna powinna być tak duża, żeby mogła naraz pomieścić całe potrzebne nam oprogramowanie wraz z danymi! Czy warto byłoby wyposażać komputery w tak wielkie pamięci operacyjne w nadziei, że przyspieszy to wchodzenie na rynek nowocześniejszego oprogramowania, z reguły coraz bardziej pamięciochłonnego?

W praktyce jest to nieekonomiczne. Wystarczy spojrzeć, jak układają się historycznie ceny pamięci w odniesieniu do ceny całości zestawu komputerowego. Tak więc cena pamięci, mimo że w kategoriach absolutnych coraz niższa, jest relatywnie stała w odniesieniu do zapotrzebowania na nią. Z całością konfiguracji komputerowej jest dokładnie odwrotnie: spadek ceny zestawu jest jedynie relatywny w wartościach absolutnych za PC-ta płacimy ciągle tyle samo. Logik (nieznający specyfiki branży komputerowej) zapewne zainteresowałby się bliżej paradoksem wynikającym ze skojarzenia tych dwóch prawidłowości i postawił pytanie: jeśli przyjąć, że inne komponenty konfiguracji komputerowej zachowują się podobnie jak pamięć, to czym wytłumaczyć, że suma absolutnie coraz tańszych składników nie przekłada się na równie absolutny spadek cen komputerów?

Faktycznie, w tak cudownej sytuacji prawdą stałyby się obrazowe przykłady, stawiające postęp w dziedzinie elektroniki za wzór przemysłowi motoryzacyjnemu. Mimo iż i w tej ostatniej branży pojazdy utrzymują podobne ceny, tyle że za każdym razem, kupując nowe auto, dostajemy go coraz "więcej". Rzecz w tym, że na rynku odbywa się nieustanna wymiana starszych modeli na nowsze. Wczorajszy superzestaw komputerowy dziś jest przeciętnością, a jutro odejdzie do lamusa i kółko się zamyka. A więc płacz i płać, ciągle tyle samo, za coraz większą wydajność komputera, szybko stającą się pożądanym standardem. W tym zaklętym kręgu przyjdzie nam pozostać tak długo, dopóki nie wyzwoli nas z niego nowy paradygmat technologiczny (np. nowe typy pamięci) lub organizacyjny (np. NC zamiast PC).

Licencja na dobijanie

Jak dotąd rozważaliśmy jedynie czysto sprzętową stronę konfiguracji komputerowej, tymczasem bez software'u sam hardware pozostaje jedynie "złomem". Wyobraźmy sobie zatem, że kupujemy telewizor za dwa tysiące złotych, a potem, jeśli chcemy obejrzeć kilka standardowych programów na ekranie, musimy już "tylko" zaopatrzyć się w pilota za jedyne... tysiąc złotych. Na szczęście tak nie jest, choć oglądanie telewizji to koszty większe niż zakupu samego sprzętu. Tymczasem w sferze IT ceny licencji programowych często wręcz "dobijają" potencjalnych bądź rzeczywistych klientów.

Z drugiej strony, truizmem jest twierdzenie, że oprogramowanie nie powstaje za darmo. Jaka powinna być zatem jego cena? Owym optimum może być granica kompromisu między wygodą powszechnej standaryzacji (wszyscy używają tego samego oprogramowania) a związanym z nią niebezpieczeństwem monopolizacji czy oligopolizacji pewnych obszarów rynku software'owego. Do podobnych dylematów prowadzą pytania o rozwiązania patentowe w rozważanym obszarze. Powszechna "patentyzacja" oprogramowania mogłaby sparaliżować rozwój informatyki, a tym samym całej cywilizacji, ale paradoksalną jest sytuacja, że w zinformatyzowanym świecie łatwiej jest o ochronę praw własności intelektualnej dla prostego otwieracza do butelek niż wyrafinowanego algorytmu sortowania.

Nie ma więc prostych reguł dla wyznaczania idealnej ceny produktu cyfrowego. Przekonał się o tym autor światowych bestsellerów Stephen King. Jego dzieło "Riding the Bullet" było dostępne wyłącznie w wersji elektronicznej i już pierwszego dnia załadowano je niemal pół miliona razy z portalu księgarni Amazon, wraz z software'owym czytnikiem (reader). Zachęcony tym sukcesem pisarz poważył się na kolejny internetowy eksperyment: udostępnił w sieci pierwszy rozdział nowej powieści "The Plant", stawiając jako warunek dla pojawienia się kolejnego rozdziału, zapłacenie dolara przez trzy czwarte czytelników. Założony pułap został (nieznacznie) przekroczony, co zaowocowało kwotą ponad stu tysięcy dolarów, niemniej "wypłacalność" cyfrowych klientów malała z każdym rozdziałem i już przy czwartym rozdziale jedynie mniejszość trzymała się ustalonych reguł.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200