Ontologiczne bazy danych

Współczesne bazy danych przekształcają się w bazy wiedzy zapamiętujące nie tylko proste informacje, ale także ich kontekst. Wykorzystując ontologiczne metajęzyki, zbliżamy się do "rozumnych" sieci semantycznych.

Współczesne bazy danych przekształcają się w bazy wiedzy zapamiętujące nie tylko proste informacje, ale także ich kontekst. Wykorzystując ontologiczne metajęzyki, zbliżamy się do "rozumnych" sieci semantycznych.

Geneza informatyki wiąże się z chęcią opanowywania przez człowieka złożoności otaczającego nas świata. Ten problem ma obecnie kluczowe znaczenie dla dalszego rozwoju naszej cywilizacji. W jej początkach koncentrowaliśmy się na zastępowaniu siły biologicznych mięśni (ludzi i zwierząt) mocą maszyn - od urządzeń najprostszych, jak wiatraki, do coraz bardziej złożonych, jak maszyna parowa, silnik spalinowy, dochodząc wreszcie do automatów i robotów. Ten proces jeszcze się nie zakończył, ale już dziś widać wyraźnie wzrost znaczenia informacji w przetwarzaniu materii. Zautomatyzowany system produkcyjny FMS (Flexible Manufacturing System) jest wart głównie tyle, ile jego oprogramowanie. To ono decyduje, czy wytwarzanie będzie faktycznie elastyczne oraz efektywne, osiągając, zgodnie z ideałem masowej indywidualizacji (mass customization), ekonomiczne parametry produkcji seryjnej przy wytwarzaniu jednostkowych wyrobów.

W ten sposób produkt pozornie czysto materialny, np. samochód, staje się także dobrem cyfrowym. Owszem, pojazdu nie da się "skopiować" tak jak pliku danych, ale można to zrobić z technologią produkcji, zakodowaną w systemach CAD/CAM/CIM (Computer Aided Design/Computer Aided Manufacturing/Computer Intergrated Manufacturing). Jednocześnie takie systemy stają się coraz bardziej złożone informacyjnie, co może prowadzić nawet do utraty kontroli nad nimi. Przykładowo, potrzeba niewielkiej zmiany w systemie prowadzi do trudno przewidywalnych i kosztownych akcji, a całość zaczyna zachowywać się podobnie jak układy zdeterminowanego chaosu, gdzie istnieje wszechzwiązek zjawisk (efekt motyla). Jeszcze niedawno (w latach 90. ubiegłego stulecia) lekarstwa na ten stan rzeczy upatrywano w standaryzacji software'u, a szczytowym osiągnięciem tego trendu było, już wcześniej, pojawienie się pakietów ERP, które miały jednolicie integrować wszelkie procesy całego przedsiębiorstwa.

Uniwersalny scyzoryk

Tego typu standaryzacja, mimo teoretycznie kuszących i oczywistych zalet, ma istotne ograniczenia w praktyce. Połączona z koniecznością delegowania usług jej pielęgnacji (outsourcing) okazuje się być kosztowna. Jasne jest także, że nawet najbardziej rozbudowana aplikacja kupiona "pod klucz", nie jest w stanie obsłużyć wszystkich "zakątków" dynamicznego przedsiębiorstwa. W końcu tę dynamikę nieustannie generuje zmienny rynek. Jednocześnie standardowy pakiet, choćby ograniczony tylko do specyfiki jednej branży, nie może być tak samo idealny dla setek czy tysięcy różnych firm. Czy zatem zrezygnować z takiego podejścia i zdecydować się na oprogramowanie indywidualne? Pytanie jest częściowo retoryczne, bo o odpowiedzi na nie decydują tyleż zaszłości historyczne (przebudowa starego budynku może być trudniejsza niż stawianie nowego), co arbitralne decyzje inwestorów bądź standardy czy wręcz mody rynkowe.

Z drugiej strony, mając taki wybór, stajemy przed dylematem - czy nabyć jeden scyzoryk z dziesiątkami funkcji, od korkociąga do nożyczek, czy też zaopatrywać się w komplet pojedynczych narzędzi. Jak zwykle, kompromisowego optimum możemy spodziewać się w okolicach złotego środka między tymi skrajnościami. Możemy informatyzować firmę w oparciu o "szkieletowy" standard ERP, współpracujący z bardziej zindywizualizowanymi pakietami satelitarnymi. W każdym razie powinniśmy mieć w firmie swego rodzaju "twarde centrum" informatyczne (core center). Nie chodzi tu o klasyczny ośrodek obliczeniowy, ale o system wiodący dla innych, funkcjonujących w kluczowych obszarach, rozwiązań.

Jeśli np. mówimy o zarządzaniu operacyjnym i planowaniu produktu, to w początkowej fazie istotną rolę odegra marketing. W pewnym momencie, i to już w fazie testów, nasz nowy produkt musi jednak otrzymać jednoznaczny numer i cechy zgodne ze zdefiniowanymi procedurami wewnętrznymi (np. "wyroby gotowe mają numery pięciocyfrowe, a surowce sześciocyfrowe") i standardami zewnętrznymi (np. EAN). Musi zatem istnieć instancja organizacyjna i aplikacyjna (np. baza danych SQL) odpowiedzialna za jednoznaczną implementację zdefiniowanych reguł (np. ISO). Kolejnym krokiem w procesie tak rozumianej integracji jest magiczne słowo "interfejs", zapewniające łączne stosowanie różnorodnych aplikacji. Zresztą, gwałtowny rozwój pakietów zorientowanych webowo, systemy rozproszone (distributed), klastrowe (clustering) czy narzędzia typu ODBC (Open Data Base Connectivity) powodują, że z punktu widzenia użytkownika dostęp do danych może być homogeniczny, podczas gdy sama integracja EAI (Enterprise Application Integration) ma "luźny" (loose coupling) charakter, co bardziej odpowiada heterogenicznemu środowisku software'owemu.

Dialog człowieka z maszyną

Heterogeniczna multibaza danych (sfederowana) oznacza jednak konieczność integrowania baz lokalnych (local schema) do postaci globalnej (global schema). W ogólnym przypadku mamy tu do czynienia z różnymi platformami sprzętowo-programowymi (systemy operacyjne), różnym sposobem kodowania danych (składnia) oraz różnicami semantycznymi. W praktyce możemy się spodziewać, że owe trzy problemy, związane z heterogenicznością, będą występowały, w różnym stopniu, jednocześnie. Przyjrzyjmy się bliżej ostatniemu z nich. Konflikty między nazwami mogą przejawiać się synonimowo (różne słowa dla tych samych atrybutów znaczeniowych) bądź homonimowo (te same słowa różne znaczeniowo - kontekst). Wymieńmy tu takie rodzaje homonimów jak ich klasyczna postać polisemantyczna bądź homofony, tj. wyrazy o podobnej wymowie, ale różnej pisowni. Dodajmy, że homofonia nabiera coraz większego znaczenia w odniesieniu do interfejsów dźwiękowych, co uwzględniały już pierwsze dialekty języków bazodanowych (np. funkcja soundex, patent USA w 1918 r.).

Interfejs dźwiękowy to nie tylko maszynowe przetwarzanie danych z automatycznej sekretarki (np. klient składa zamówienie przez telefon), ale również kierunek od komputera do człowieka. Przyjęte do bazy danych zlecenia mogą być bezpapierowo komisjonowane, a np. operator wózka widłowego zamiast ekranu dotykowego ma do dyspozycji zestaw słuchawkowy i prowadzi dialog z maszyną, realizując kolejne zadania. Takiej bazie danych nie wystarczy klasyczna taksonomia, charakterystyczna dla obiektowych języków programowania (klasy). Zwróćmy uwagę, że taksonomia to paradygmat hierarchiczny, podobnie jak pierwsze bazy danych (pomijając modele liniowe). Lepszym rozwiązaniem okazały się być sieciowe, a następnie relacyjne bazy danych, a cechę sieciowości znajdziemy właśnie w tezaurusach, czyli słownikach umożliwiających definiowanie relacji między pojęciami.

W ten sposób możemy posunąć się krok dalej, w stronę ontologicznych baz danych. Sam termin "ontologia", należący tradycyjnie do podstawowych w obszarze filozofii, trafia na szeroką skalę pod "informatyczne strzechy". Jest to swoisty znak czasu, potwierdzający tezę o niemożliwości efektywnego rozwoju technik zarządzania wiedzą bez odwołania się do dorobku nauk humanistycznych. Podejście interdyscyplinarne jest właściwą drogą poszukiwania odpowiedzi na problemy tworzone przez złożoną rzeczywistość. Problemy te rzadko da się zidentyfikować w obrębie tylko jednej "szufladki" dziedzinowej, a tzw. świat realny niewiele sobie robi z naszych, mniej lub bardziej, sztucznych podziałów dyscyplinarnych. Pewne jest, że koncentrowanie się tylko na narzędziowych aspektach omawianych zagadnień prowadzi na manowce.


TOP 200