(Dia)krytyczny problem polszczyzny

Od dawna spieram się ze studentami o polską transkrypcję fonetyczną w epoce Internetu. Starają się mnie przekonać, żeby już dać sobie spokój z kropkami, kreskami i ogonkami przy polskich literach, czyli ze znakami diakrytycznymi.

Od dawna spieram się ze studentami o polską transkrypcję fonetyczną w epoce Internetu. Starają się mnie przekonać, żeby już dać sobie spokój z kropkami, kreskami i ogonkami przy polskich literach, czyli ze znakami diakrytycznymi.

Istnieją pewne argumenty za takim stawianiem sprawy. Od komunikacji zależy niemal wszystko: ona określa naszą tożsamość, odzwierciedla kulturę, a także - co może najważniejsze - uruchamia nasze działania. Symbole, które składają się na kod komunikacyjny, są co prawda niematerialne, ale stają się siłą materialną, gdy skłaniają nas do działania. Nieraz dzieje się to na zasadzie przymusu, kiedy wysyła się do nas komunikat, że mamy coś zrobić; innym razem na drodze perswazji, gdy się nas przekona, że mamy podjąć jakieś działanie (np. coś kupić, do czego nakłania nas pewna powszechna forma komunikacji społecznej zwana reklamą). W jednym i drugim przypadku komunikacja symboliczna wywołuje zmianę.

Jej zasięg odpowiada zasięgowi mediów komunikacji.

Kwestia zasięgu

W prymitywnej hordzie zasięg wpływu komunikacji na działanie ograniczał się do donośności głosu. W miarę rozwoju technicznych przedłużeń ulegał rozszerzeniu. Dziś jest to zasięg globalny dzięki technologiom informacyjnym. W epoce maszyn ta świadomość potęgi komunikacji nie towarzyszyła nam tak mocno. Była to gra z przyrodą. Stało się przy maszynie i wykonywało rutynowe czynności, nie komunikując się godzinami z innymi uczestnikami procesu wytwórczego. Dziś to przede wszystkim gra z ludźmi, a ta wymaga stałej komunikacji.

Język jest kapitałem symbolicznym, choć nie jest księgowany jako zasób rozwoju, bo jest dobrem powszechnie dostępnym, a takiego się nie ceni. Woda i powietrze też były długo nieograniczonymi zasobami, więc ich nie chroniono dopóty, dopóki było ich w bród. Zaczęto je cenić, gdy zdano sobie sprawę, że te dobra mają wartość, jeśli są nieskażone (wtedy przestają być nieograniczone). Trzeba więc za nie płacić.

Może zatem należałoby płacić za użytkowanie zasobu, jakim jest język, żeby był szanowany przez użytkowników? Oczywiście już dziś płaci się za jego naukę. Zwłaszcza jeśli jest to lingua franca, jak angielski. Ma on tym większą wartość, im szersza jest przestrzeń międzyludzkiej komunikacji. Amerykanie czy Anglicy zarabiają wielkie pieniądze na swoim języku - tak samo, jak się zarabia na tym, że bije we własnej mennicy międzynarodową walutę. Na językach międzynarodowych zarabia się wprost: sprzedaje się - i to za dobrą cenę - usługi językowe, czyli kursy, tłumaczenia i in. Ameryka i Wlk. Brytania mają świetne uniwersytety, ale młodzi ludzie z całego świata garną się do nich tylko dlatego że są dobre - studiując po angielsku, wzbogacają swój human capital.

Od jakiegoś czasu można dostrzec, zwłaszcza w kręgach organizacji międzynarodowych (UNESCO), że zaczyna zauważać się wartość języków i dialektów rzadkich i/lub zagrożonych wyginięciem. Dlaczego? Bo w tych językach tkwi tzw. wiedza wernakularna (tubylcza) gromadzona przez pokolenia i dająca się odtworzyć tylko w tych językach. W dokumentach międzynarodowych mówi się, że takie języki należy chronić jak ginące gatunki w imię bioróżnorodności, która wszak nie potrzebna jest tylko po to, aby bawić i rozkoszować, lecz by zachować jak największą pulę genetyczną.

Wartość języka jako zasobu rozwojowego jest tym większa, im większe jest środowisko umożliwiające komunikację i transakcje. Takim megaśrodowiskiem jest dziś Internet, który podnosi do najwyższej rangi rolę języka jako narzędzia komunikacji. Już nie mówię tu o sztucznych sformalizowanych językach używanych do oprogramowania. Są one także dobrem symbolicznym, które jest tworzone przede wszystkim z myślą o zysku (choć nie w całości, bo jest też free software).

Czy zaśmiecając polszczyznę, niszczymy kapitał kulturowy?

Rodzi się pytanie, czy zmiany w polszczyźnie to niszczenie kodu i kapitału językowego, czy może jego funkcjonalizacja i adaptacja do potrzeb cywilizacyjnych? Snuje się ponure wizje hybrydyzacji polszczyzny. Spotkałem się nawet z opinią dość znanego polityka, że funduje się nam spodlony język tylko po to, byśmy rozumieli wydawane nam przez obcych komendy. A polszczyzna, jaką znamy, stanie się dialektem używanym tylko w domach i kręgach nieformalnych, może jeszcze w urzędach gminnych, ale w centrach, w biznesie będzie królować narzecze "polsko-angielsko-podobne".

Oczywiście, odrzucam takie podejście. Myślę, że z inwazją angielszczyzny w sfery nowoczesnego rozwoju (takie jak technologie, bankowość, zarządzanie, badania i wdrożenia i in.) jest podobnie jak ze wszystkimi poprzednimi: łacińską, francuską czy niemiecką. Przyjrzyjmy się tej ostatniej. Do polskiej normy językowej przedostały się niemieckie nazwy narzędzi przywożonych przez Polaków z Niemiec albo przez samych Niemców, których to narzędzi u nas, zwłaszcza na wsi, nie znano, więc naturalnie nie było na nie nazw rodzimych. Niektóre spolszczono, np. "kielnię", inne przejęto "na żywca" (hebel) lub prawie na żywca (waserwaga). Z czasem zaczęto upowszechniać polskie odpowiedniki (gładzik, strug, poziomica), ale na wsi przetrwały stare. Czy w imię czystości polszczyzny mieliśmy zrezygnować z niemieckich nazw, skoro nie mieliśmy polskich? Lepiej mieć jakiekolwiek nazwy, niż żadnych, gdyż - jak mawiał mistrz Wittgestein - rzeczy nienazwanych nie rozumiemy, a jeśli nie ich rozumiemy, to nie mamy nad nimi władzy.

Jak jest z tą dzisiejszą polszczyzną? Coraz bardziej ona - i nie tylko ona - homonimizuje się, ponieważ szybciej niż nowych słów przybywa rzeczy materialnych i symbolicznych do nazwania, co czyni języki coraz bardziej wieloznacznymi (semiotycy nazywają to polisemią). Przykład pierwszy z brzegu - "mysz", która zrobiła globalną karierę (nb. żywy pierwowzór jest też globalny). Oznacza to, że w rozumieniu znaczenia coraz większej liczby słów coraz istotniejszą rolę odgrywa kontekst, w jakim są używane. I bardzo dobrze. Bo tam, gdzie jest kontekst, tam jest potrzeba interpretacji, co nas zmusza do wysiłku i chroni przed algorytmizacją myślenia (o czym pisałem niedawno na tych łamach w kilku esejach). Można sobie wyobrazić, jak trudne zadanie stawia to przed twórcami semantycznego "weba", który ma rozpoznawać konteksty. Żeby je rozpoznawać, musi o nas więcej wiedzieć: jeśli wpiszemy do przeglądarki słowo chair, to powinien się domyślić, czy chodzi nam o zwykłe krzesło czy o kierownika katedry uniwersyteckiej.

Inny problem to produkcja językowego spamu. Z niebezpieczeństwem zaśmiecenia musi sobie radzić każdy język. Jak sobie z tym radzi, zależy w dużym stopniu od tego, na ile jest zamknięty. Języki centralne, z angielskim na czele, produkują te śmieci, przetwarzając własne zasoby leksykalne. Społeczeństwa, które nie tworzą wynalazków i innowacji, są skazane na pożyczki i nie ma w tym nic złego. Bo każdy język jest żywy dopóty, dopóki się sam oczyszcza, tak jak rzeka. Ta jednak radzi sobie sama tylko z zanieczyszczeniami organicznymi, z chemicznymi już nie.

Z językami jest trochę podobnie: pewne zanieczyszczenia są szybko usuwane, inne asymilowane, a jeszcze inne wchodzą do użycia, ale "zgrzytają". Asymilowane są te, którym nadaje się polską pisownię, i odmiennie. Jedne udało się zastąpić (auto - samochód, aeroplan - samolot), na inne nie ma sposobu, chociaż z pewnością są obcym ciałem, bo odbiegają od polskiej pisowni. Takim przykładem jest weekend (trudno sobie wyobrazić "łykend"). Często niemieckie z pochodzenia słowa są zastępowane angielskimi. Na przykład nie używa się już słowa szlagier, a hit. Dziwi mnie trochę, że furman nie został jeszcze wyparty przez batmana.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200