Śruba z lewym gwintem

Okład czy przekład?

Wspólnym problemem w Europie są (również w Polsce) kwestie językowe. Normy międzynarodowe są wydawane po angielsku i - dla powszechności i jednolitości stosowania - wymagają tłumaczenia na języki narodowe. Tłumaczenie takie w przypadku norm technicznych, w warunkach braku własnego słownictwa fachowego, nie jest łatwe i przebiega wolno. Jego realizacją zajmują się tzw. Normalizacyjne Komisje Problemowe, z których każda specjalizuje się w określonej dziedzinie (informatycznej). Zaległości w tłumaczeniu sięgają w Polsce dziesiątków lat i, co gorsza, ciągle się zwiększają. W tej sytuacji podjęto kontrowersyjną decyzję o tzw. tłumaczeniu okładkowym. Ma ono polegać na tłumaczeniu na język polski tylko stron tytułowych norm, a pozostawianiu reszty w języku oryginału.

Rozwiązuje to w pewien sposób sprawę zaległości, jednak musi powodować istotne różnice interpretacyjne, które będą działać przeciw normalizacji, co w informatyce może mieć szczególnie dotkliwe (i społecznie kosztowne) skutki. Od blisko sześciu lat działam w jednej z takich Komisji Problemowych, stąd dobrze wiem, jak trudno w wielu przypadkach właściwie zinterpretować zapisy oryginałów norm, które często są tworzone przez tych, dla których język angielski nie jest językiem rodzimym. Do zrozumienia istoty takich norm konieczna jest zdobyta wcześniej praktyczna wiedza o danej dziedzinie.

Pisząc o normach informatycznych i działalności normalizacyjnej w tej dziedzinie, nie sposób nie wymienić organizacji ponadnarodowych, które działając poza oficjalnymi strukturami, mają jednak moc stanowienia reguł, zyskujących sobie posłuch w skali świata, w dodatku bez żadnych sankcji administracyjnych czy prawnych. Chodzi tu o takie organizacje, jak Internet Society (ISOC) czy World Wide Web Consortium (W3C). Działają one w wielu przypadkach dzięki pracy społecznej znacznej liczby wybitnych specjalistów. To w efekcie tej pracy globalne połączenia informacyjne funkcjonują sprawnie i niezawodnie.

Dość gwałtowny i trudny do kontrolowania rozwój sieci globalnej jest źródłem coraz poważniejszych problemów, które nie zawsze można rozwiązać drogą stanowienia norm. Coraz trudniej, ze względu na coraz znaczniejszą liczbę użytkowników, wprowadzać zmiany do już istniejących uregulowań normalizacyjnych w tej dziedzinie. Jednym z najbliższych wyzwań będzie tu np. sprawa poszerzenia przestrzeni adresowej protokołu IP (przestrzeń ta, w obecnej swej postaci, jest już bliska wyczerpania), wymagająca wprowadzenia nowej normy.

Dużo na wiele lat

Liczbę stosowanych norm informatycznych (jak również pochodnych lub związanych) ocenia się na dziesiątki tysięcy. To skutecznie utrudnia orientację i swobodne poruszanie się w tym gąszczu uregulowań. Sytuację dodatkowo komplikuje fakt konkurowania podobnych rozwiązań producenckich (zakładowych), jak środowiska informatyczne J2EE i .Net. Każde z nich to długi szereg reguł szczegółowych o charakterze norm.

Dziesięć lat temu, na konferencji w siedzibie Parlamentu Europejskiego w Strasburgu rozmawiałem z ówczesnym szefem jednego z biur Wspólnoty odpowiedzialnym za sprawy normalizacyjne. Powiedział wówczas, że podejmując tę pracę po studiach, był przekonany, iż sprawa ujednolicenia norm w skali Europy to kwestia co najwyżej kilkunastu lat. "Obecnie - mówił - po 10. latach pracy wiem, że jest to proces, który trudno będzie zakończyć moim prawnukom".

Standardy Internetu

Rozwój sieci globalnej byłby niemożliwy bez sprawnego funkcjonowania mechanizmów budowy standardów internetowych opartych na zasadzie konsensusu i wspólnego wypracowywania publicznie dostępnych rozwiązań. Podstawową rolę w tej kwestii pełnią: IETF (Internet Engineering Task Force) i World Wide Web Consortium.

IETF jest organizacją o specyficznej formule odwzorowującej charakterystycznego dla Internetu ducha wolności. Nie jest to bowiem formalna organizacja, lecz wiele grup tworzonych przez specjalistów zainteresowanych wolontariatem na rzecz ewolucji technologicznej Internetu. Działają oni według pewnego schematu postępowania, którego efektem są dokumenty RFC (Request for Comments), stające się później opisami standardów de facto (IETF nie jest organizacją standaryzacyjną, lecz tworzone przez nią specyfikacje często stają się powszechnie obowiązującymi standardami). Większość prac jest wykonywana za pośrednictwem internetowych list dyskusyjnych, aczkolwiek do podejmowania decyzji najważniejsze są tutaj spotkania w ramach grup roboczych, które nie mają charakteru konferencji, lecz raczej prezentacji technicznych. Na czele całej nieformalnej struktury stoi organizacja ISOC (Internet Society).

World Wide Web Consortium to drugie podstawowe ciało standaryzacyjne (generalnie bardziej sformalizowane), które poprzez swoje działania steruje technologicznym rozwojem pajęczyny WWW (a więc pewnej wydzielonej logicznie części składowej Internetu). Powołał je do życia w 1994 r. Tim Berners-Lee, twórca protokołu HTTP (fundamentu WWW), na słynnym uniwersytecie MIT przy wsparciu ze strony amerykańskiej agencji wojskowej DARPA, szwajcarskiego ośrodka naukowego CERN oraz Komisji Europejskiej. Wkrótce do W3C swój akces zgłosiły najważniejsze koncerny informatyczne zainteresowane wytwarzaniem rozwiązań internetowych (aczkolwiek przyjęto żelazną zasadę, że tworzone standardy mają być niezależne od konkretnych firm). Najważniejsze cele długoterminowe, jakie postawiono przed W3C, to budowanie specyfikacji technologicznej strony infrastruktury WWW, tak aby w szczególności zapewnić:

  • Uniwersalny dostęp (niezależnie od języka i położenia geograficznego odbiorcy);

  • Wbudowaną informację semantyczną (dzięki której można przeszukiwać zawartość WWW);

  • Zaufanie (tak aby rozwój technologii uwzględniał aspekty prawne, handlowe i społeczne).
W3C opracował do tej pory ponad 40 specyfikacji technologicznych, kluczowych dla rozwoju !WWW. Dzięki jego pracom udało się przejść drogę od prostej sieci WWW (z protokołem HTTP, adresowaniem URL i językiem HTML) do dzisiejszej architektury WWW, zbudowanej na solidnej bazie metajęzyka XML.

(peg)


TOP 200