MISS SOFTWARE, czyli weryfikacja po polsku

Jednym ze sposobów promocji programów i systemów komputerowych są rankingi i konkursy, dokonywane na łamach prasy lub - niestety u nas jeszcze rzadko - przez specjalistyczne firmy konsultingowe.

Jednym ze sposobów promocji programów i systemów komputerowych są rankingi i konkursy, dokonywane na łamach prasy lub - niestety u nas jeszcze rzadko - przez specjalistyczne firmy konsultingowe.

Organizatorzy tych, przypominających czasem "konkursy piękności", testów i porównań stosują często co najmniej dyskusyjne kryteria. Jest charakterystyczne, że z reguły marginalnie traktuje się przy ich doborze interes użytkownika, bądź analizuje przebieg procesu przygotowania programu jedynie pod kątem stosowanych narzędzi.

A przecież określenie jakości i użyteczności jakiegokolwiek produktu technicznego, to nie wybory miss. Dajmy sobie wreszcie spokój z "programami - dziełami sztuki", "programistami-artystami", itd. Potraktujmy software poważnie, z jednej strony jak produkt techniczny, z drugiej - co ważniejsze - jako narzędzie, służące ściśle określonym celom.

Pilna konieczność wypracowania metod oceny programów i systemów komputerowych wynika z kilku przyczyn.

Po pierwsze, instytucje i organizacje, odpowiadające za informatykę w ważnych obszarach życia gospodarczego i społecznego (np. administracji, służb podatkowych, ubezpieczeń społecznych), upatrują w metodach weryfikacji wskazówek czy wręcz narzędzi, ułatwiających wybór produktu informatycznego.

Z kolei mniejsze organizacje (przedsiębiorstwa, firmy prywatne, spółki wszelkiej maści), zwłaszcza te, które już się "sparzyły", bezgranicznie ufając zapewnieniom dostawcy, poszukują sita, oddzielającegop ziarna od plew.

Po trzecie wreszcie, krajowe firmy software'owe, które zyskały już liczną klientelę na bardziej lub mniej standardowe systemy informatyczne - zwłaszcza wspomagające zarządzanie, księgowość, gospodarkę materiałową i towarową - chcą weryfikować swoje produkty, zanim zrobi to rynek. Okazuje się bowiem, że nawet pozornie niewielkie braki w programach powielanych w dużej liczbie egzemplarzy mogą znacznie obniżyć szanse, zwłaszcza nowych produktów.

Brak armat

Tak więc obszar zastosowań zobiektywizowanych kryteriów oceny wydaje się dość rozległy. Pytanie tylko, dlaczego tak mało chętnych do jego zagospodarowania? Jedną z przyczyn jest to, że nawet najlepsza metodologia to dopiero początek. Trzeba bowiem jeszcze znaleźć tych, którzy zdolni są ją stosować w praktyce i zachować przy tym konieczną niezależność. Gdy tak postawimy problem okaże się, że praktycznie niewielu ludzi i niewiele instytucji spełnia tak określone kryteria.

Prasa specjalistyczna, jakby na sprawę nie patrzeć, jest bardziej lub mniej finansowo uzależniona od ogłoszeniodawców.

Wielcy potencjalni użytkownicy, stoją przed dylematem: czy centralizować decyzje i standardy, ryzykując hipotetyczny wzorzec, który może się nie sprawdzić w warunkach jednostek niższego szczebla (dotyczy to zwłaszcza administracji), czy też dać im swobodę decyzji, ryzykując, że pozostawiać będą one wiele do życzenia?

Wreszcie grupa średnich użytkowników jest na tyle zdezintegrowana, że nie może skumulować środków i zafundować sobie np. czegoś w rodzaju biura wzornictwa informatycznego.

Pseudoatestacje

Mimo to pojawiają się już formy weryfikacji, uprawiane przez instytucje państwowe czy organizacje społeczne, których producent uniknąć nie może, nie ryzykując pozycji produktu na rynku. Chodzi o atestacje.

Powstaje jednak pytanie: czy, z formalnego i merytorycznego punktu widzenia, stosowana w nich procedura zapewnia obiektywną ocenę software'u, a zwłaszcza jego przydatności dla określonego typu użytkowników?

Atestacja, a raczej obowiązek jej przeprowadzania nie mają w istocie jasnego umocowania prawnego, choć próby zmiany tego stanu rzeczy podjęło Biuro Informatyki Rządu. Chodzi o opracowanie pt. "Propozycje kierunków działania Rządu RP w dziedzinie zastosowań informatyki. Dokument ten sugeruje niezbędność określonego typu weryfikacji, a więc badań przydatności i cech systemów informatycznych. Pojawia się w nim również pojęcie atestacja. Jego zakres semantyczny nie został jednak określony.

Tymczasem atestacja systemów informatycznych, z certyfikatami, pieczęciami, itd., a więc o istotnym znaczeniu marketingowym, jest w kraju prowadzona. Rzecz w tym, że instytucje atestujące nie posiadają klarownych delegacji prawnych do tego typu działalności, a - co gorsza - często ani odpowiedniego wyposażenia, ani kadry.

W rezultacie czytelnik takiego atestu, a więc potencjalny nabywca, ma przy jego lekturze sporo wątpliwości: Nie wie zwłaszcza, czy atest, wystawiony przez instytucję o określonym obszarze działania, zaświadcza, iż system informatyczny sprawdza się tylko w tej dziedzinie, czy też zawiera ocenę ogólniejszą?. Czy np. oprogramowanie sprawdzono również pod względem zabezpieczenia danych itp.?

W podobnie trudnej sytuacji są producenci oprogramowania. Nie mają oni pewności, czy instytucja atestująca ich produkt działa na tym samym obszarze co klient, do którego go adresują, nie mówiąc już o braku rozeznania co do stosowanej przy wydawaniu atestów, metodologii i warunków ich przeprowadzania.

Niestety uzasadnień tych wątpliwości nie trzeba szukać ze świecą. Dowodem na to liczne przykłady systemów posiadających określone wyróżnienia konkursowe czy nawet atesty, których przydatność dla konkretnych zastosowań można zakwestionować, nie uciekając się do bardziej wyrafinowanych analiz, a po prostu kierując zdrowym rozsądkiem.

A może jednak "szkiełko i oko"?

Na całe szczęście problemy są powoli dostrzegane, i pojawiają się ludzie, którzy mimo wszekiej przeszkody, pracują nad metodyką oceny programów i systemów komputerowych, widząc swą przyszłość w kategoriach niezależnych firm konsultingowych. Słusznie zaczynają od wypracowania metodologii, choć na razie chcą pozostać anonimowi, twierdząc, że do odgrywania roli jej kreatorów jeszcze nie dojrzeli.

Warto chyba - mimo wszystko - zapoznać się z tym jak przebiega tok ich myślenia

Opisana poniżej metoda ma na celu głównie sprawdzenie przydatności gotowego oprogramowania do potrzeb, wymagań i warunków, jakie stawia system informacyjny (informacyjny, a nie informatyczny) konkretnej instytucji, firmy, czy organizacji lub ich określonym typom (np. hurtowniom, szpitalom, aptekom, sklepom, stacjom benzynowym, biurom projektowym, wydawnictwom itp.).

Początkowo autorzy zakładali, że opis systemu informacyjnego u potencjalnego użytkownika, zostanie im podany na tacy. Praktyka wykazała całą ich naiwność i spowodowała potrzebę innego podejścia. Sprowadza się ono do ścisłej współpracy z przyszłym użytkownikiem już od momentu, gdy zaświta mu w głowie pierwsza myśl o "komputeryzacji"

Przy takim założeniu powstał pewien model, czy procedura postępowania, której przestrzeganie powinno doprowadzić nie tylko do weryfikacji produktu dla konkretnego klienta, ale zaowocować opracowaniem przydatnym, również firmom i instytucjom o zbliżonym profilu.

Początkiem procesu weryfikacyjnego jest analiza warsztatu programistycznego, jakim posłużył się producent aplikacji. Bada się przy tym w szczególności: sposób dokumentowania procesu tworzenia programu, stosowane narzędzia, przestrzeganie standardów zapewniania jakości (np. ISO), plany rozwoju programu.

Kolejnym etapem jest ocena poprawności formalnej, zarówno dokumentacji, załączanej do pakietu, umowy licencyjnej, jak i zachowań programu podczas realizacji funkcji i procedur określonych przez producenta.

Po wstępnej fazie, metodologia zakłada sprawdzenie stopnia tzw. "idioten security", czyli odporności programu na błędy obsługi i pracochłonności procedur usuwania błędów.

Z kolei ocenia się jego odporność na przypadki losowe, np. zachowanie w momencie zaniku napięcia i innego rodzaju

awarii o technicznej proweniencji, związanych z zawodnością nie tyle oprogramowania, co sprzętu. Bada się szczególnie zabezpieczenie przed utratą zbiorów, stopień automatyzacji procedur składowania, zabezpieczenie przed wtargnięciem wirusów, itp.

Kolejna faza, to analiza systemu dostępu i zabezpieczenia danych. Analizuje się system haseł i ich odporność na przełamanie, stopień ochrony przed zamierzoną lub przypadkową zmianą danych, oraz wyposażenie programu w procedury monitorujące zachowanie użytkownika i chroniące przed szkodliwą ingerencją w system.

Po tej generalnej ocenie, standardowej dla każdego rodzaju programów, nastaje pora na weryfikację stopnia jego przydatności w konkretnych zastosowaniach. Generalnie rzecz biorąc główne elementy tej części procedury weryfikacyjnej składają się z analiz:

  • metodycznej poprawności interfejsu użytkownika

  • klarowności i walorów dydaktycznych instrukcji obsługi

  • sposobu instalowania i precyzji jego opisu.

    Najważniejszym jednak fragmentem tej części weryfikacji jest ocena poprawności programu z punktu widzenia obsługi systemu informacyjnego, w określonych typach przedsiębiorstw i instytucji. Ta część analizy poprzedzona być musi opisem przepływu informacji i trybu podejmowania decyzji. Jest to najtrudniejsza część pracy, wymagająca zaangażowania specjalistów z danej dziedziny i ścisłej współpracy z użytkownikiem. Sama weryfikacja zaś polega na

    skonfrontowaniu działania programu z modelem przepływu informacji w określonej strukturze organizacyjnej.

    Procedurę weryfikacji mogą uzupełniać również porównania: analizowanego produktu z podobnymi, istniejącymi na rynku, a także zebranie opinii użytkowników, o ile weryfikacja dotyczy produktu już sprzedawanego.

    "Prawdziwa cnota krytyk się nie boi."

    Rezultaty tak dokonywanej oceny programów - jak się wydaje -przydać się mogą zarówno użytkownikom, jak i producentom software'u. Tym pierwszym do weryfikacji ofert softwerowych, składanych przez firmy informatyczne w ramach przetargów, a także gotowych pakietów. Tym drugim, do doskonalenia istniejącego już oprogramowania, bądź projektowania kolejnych jego wersji. Obu, do łatwiejszego porozumiewania się i kojarzenia interesów.

    Mimo zapewne licznych "grzechów młodości" opracowanej metodyki, wydaje się, że przedstawienie jej idei wywoła zainteresowanie i dyskusję. Już dziś można bowiem powiedzieć, o jej głównej zalecie: daje potencjalnemu użytkownikowi i producentowi uporządkowaną odpowiedź na kilkaset pytań, charakteryzujących produkt. Przybliża szanse zastosowania racjonalnych kryteriów wyboru, niejednokrotnie ważniejszych, niż cena, ale nieuświadomianych. Do tematu warto więc wracać, co zamierzamy uczynić w kolejnych numerach CW.

  • W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

    TOP 200