Poszukiwanie rzetelności

To wręcz niewiarygodne, ale - jak wskazują obserwacje - przyszły użytkownik systemu MRP II z reguły nawet nie próbuje sobie odpowiedzieć w uporządkowany sposób na pytanie o szansę wdrożenia zakupionego pakietu.

To wręcz niewiarygodne, ale - jak wskazują obserwacje - przyszły użytkownik systemu MRP II z reguły nawet nie próbuje sobie odpowiedzieć w uporządkowany sposób na pytanie o szansę wdrożenia zakupionego pakietu.

Przyszły użytkownik podczas dokonywania wyboru jest skupia uwagę na poznaniu cech funkcjonalnych i techniczno-technologicznych oprogramowania i platformy, na jakiej ono pracuje. Ocena usług wsparcia wdrożenia, a właściwie ich skuteczności, jest pomijana.

Qui pro quo

Jedynym stosowanym sposobem oceny szans wdrożenia systemu jest żądanie przedstawienia referencji, a zwłaszcza wskazania użytkownika z identycznej lub pokrewnej branży. Wizyta referencyjna jest przy tym metodą ułomną. W obu bowiem przypadkach przyszły użytkownik otrzymuje przede wszystkim wiadomości o systemie. Pyta: jak "to" wygląda, jak "się sprawdza", w jakim stopniu spełnia specyficzne dla branży wymagania? Oczywiście, są to informacje potrzebne i ważne, ale nadal nic nie mówią na temat szans wdrożenia systemu przez konkretnego dostawcę.

Bez trudu można wymienić kilku powszechnie znanych w Polsce dostawców systemów, umieszczających na swoich listach referencyjnych użytkowników, którym nie dostarczyli systemu, ani nie pomogli w jego uruchomieniu. Nie ma w tym nic złego, dopóki jest mowa o "referencji systemu". Nadużycie zaczyna się w chwili, gdy taki dostawca - milcząco - sobie przypisuje zasługę wdrożenia. Mechanizm wprowadzania klienta w błąd wygląda następująco:

1. Dostawca pokazuje, że przedsiębiorstwo A eksploatuje system Y.

2. System działa i przedsiębiorstwo A jest z niego zadowolone.

3. Dostawca X, też sprzedający system Y, sugeruje potencjalnemu klientowi, że ten też będzie zadowolony z systemu Y.

Gdzie nadużycie? Otóż, system Y dobrze funkcjonuje w przedsiębiorstwie A, ponieważ wybrano i wdrożono go właściwie, służy więc jako efektywne narzędzie wspierające pewną koncepcję organizacyjną i biznesową. Właściwości systemu Y wpłynęły na sukces w takim samym stopniu, jak usługa wdrożeniowa jego dostawcy. Ale tym dostawcą nie był X, tylko ktoś zupełnie inny, którego zasługi przypisał sobie X. Mechanizm ten jest powszechnie stosowany na polskim rynku systemów ERP/MRP II.

Dobrze byłoby, aby firmy konsultingowe, nie wyłączając tzw. Wielkiej Szóstki, doradzając przedsiębiorstwom wybór takiego czy innego rozwiązania, zdecydowanie podkreślały, że sukces wdrożenia systemu zależy od ludzi. Od ich wiedzy, sposobu zorganizowania, stosownych procedur, narzędzi. Słowem - od skuteczności usług, jakie świadczą na rzecz przyszłego użytkownika systemu.

Jakie informacje dotyczące dostawcy należy wziąć pod uwagę, oceniając szansę wdrożenia systemu? Jak te informacje analizować? Jakich związków szukać? Przedstawiona niżej w zarysach Analiza Skuteczności Usług (wsparcia wdrożenia) może pomóc w udzieleniu odpowiedzi na te pytania. Być może ważna jest nie tyle zaprezentowana technika, lecz propozycja kierunku poszukiwań.

Analiza Skuteczności Usług

Dostawcy systemów MRP II realizują na rynku swoją strategię. Prześledzenie efektów ich działalności w dłuższym okresie pozwala na jej zidentyfikowanie i udzielenie odpowiedzi na pytanie: czy dotychczasowe dokonania dostawcy Y systemu X i/lub usług związanych z jego wdrożeniem rokują, że dostawca ten będzie dla przyszłego użytkownika właściwym partnerem? W przemyśle IT kompetentnych zespołów ludzkich z reguły nie traci się ani nie buduje z miesiąca na miesiąc.

Przystępując do rozmów, należy najpierw zdefiniować wszystkie kwestie dotyczące tematu pojęcia. Problem polega bowiem na tym, że większość informacji niezbędnych do przeprowadzenia analizy systemu trzeba uzyskać od dostawcy, a więc strony zainteresowanej tym, aby ocena wypadła jak najlepiej. Należy więc pamiętać, że jakość udzielonych przez niego informacji będzie taka, jak jakości pytań. Jednoznacznie zdefiniowane pojęcia uniemożliwiają manipulację. O ewentualne kłamstwa ze strony dostawcy nie ma się raczej co obawiać:

1. Trzeba przyjąć, że wymiana informacji ma charakter ściśle poufny;

2. Dostawca musi wiedzieć, że jakiekolwiek kłamstwa lub naciąganie faktów automatycznie wyeliminują go jako partnera;

3. Dostawca musi mieć też świadomość, iż istnieją proste sposoby weryfikacji przekazanych przez niego informacji, i że przyszły użytkownik systemu będzie z nich korzystał.

Konkludując: użytkownik analizuje dotychczas realizowaną strategię dostawcy systemu/usług, przenosząc wnioski z tej analizy w przyszłość. Szczególnie interesuje go geneza i efekty świadczonych usług wsparcia wdrożenia; posługuje się jasno zdefiniowanymi pojęciami i docenia wagę szczegółowych informacji. Aktywnie ich poszukuje i weryfikuje je.

Przedmiot analizy

Przedmiotem analizy jest firma dysponująca konkretnymi fachowcami, którzy wspierają wdrożenia konkretnego systemu. Informacja o ogólnej liczbie sprzedanych czy wdrożonych systemów X w Polsce jest dla celów naszej analizy bezużyteczna (gdyby na niej poprzestać). Tak sprzedaż, jak i uruchomienie oprogramowania w danym przedsiębiorstwie mogło być dziełem pierwszego, drugiego czy piątego dostawcy. Podobnie bezużyteczna jest informacja o ogólnej liczebności zespołów konsultantów, którymi dysponuje dostawca. Podsumowując: analizujemy dokonania i zasoby konkretnej firmy w związku z konkretnym systemem.

Metoda

Analiza ma umożliwić punktową ocenę szans powodzenia wdrożenia systemu Y w przypadku, gdy będzie ono wspierane przez firmę X. Ma również umożliwić porównanie szans wdrożenia u danego użytkownika różnych systemów wspieranych przez różne firmy. Toteż w pierwszym etapie konieczna jest budowa wskaźników, które pozwolą scharakteryzować działalność różnych dostawców, związaną z różnymi systemami, według jednolitego standardu.

Wskaźniki będą ilustrowały pewne relacje zachodzące między danymi dotyczącymi dostawcy. Konieczna jest oczywiście interpretacja każdego z nich. Trzeba jednak pamiętać, że wiele z nich może ilustrować niekoniecznie jedno zjawisko; analityka będą zawsze interesowały związki z wdrażaniem systemu. Uwaga ta dotyczy także interpretacji relacji, jakie zachodzą między wskaźnikami.

W drugim etapie analityk musi wybrać te wskaźniki, które - według jego oceny - są istotne dla niego.

Kolejny etap polega na nadaniu wybranym wskaźnikom pewnych wag (współczynników). Sens tej pracy jest dość prosty: w grupie wybranych wskaźników w poprzednim etapie, niektóre mają znaczenie większe, inne są mniej ważne. Dobór skali (np. od 0 do 5: nieistotny, mało istotny, średnio istotny, istotny, ważny, najważniejszy) i nadanie stosownej wagi danemu wskaźnikowi będzie zawsze domeną sporządzającego analizę. Wagi mają obrazować właśnie jego preferencje.

Aby analiza miała sens, wszyscy objęci nią dostawcy muszą być ocenieni za pomocą tego samego systemu wskaźników (zestaw plus wagi). Zauważmy, że nadanie wag różnym wskaźnikom może wyeliminować etap drugi, tzn. dobór wskaźników istotnych. Po prostu odrzucimy te, którym nadamy wagę "0". O ile jednak przyjmiemy inną skalę, dobór ten będzie konieczny. Trzeba też zwrócić uwagę na przydatność obliczenia średniej wartości danego wskaźnika dla grupy ocenianych firm (ściślej: związku dostawca/usługa/system). Znajomość średnich wartości wskaźników pozwoli nam na pogrupowanie dostawców, pomoże w sformułowaniu strategii wyboru, wreszcie - może być punktem wyjścia do wprowadzenia do kontraktu klauzul, które będą chroniły interesy użytkownika. Mechanizm w tym ostatnim przypadku jest następujący:

- użytkownik wybrał dostawcę X, mimo iż wartość danego wskaźnika osiągnęła wartość poniżej średniej dla ocenianej grupy;

- przyczyną niskiej wartości wskaźnika było podjęcie lub zaniechanie określonych działań przez dostawcę;

- użytkownik zastrzega więc w kontrakcie, że dostawca podejmie takie działania, których zrealizowanie podwyższy wartość wskaźnika.

Mimo że jest to ingerencja w wewnętrzne sprawy czy też politykę dostawcy, przeforsowanie takiej klauzuli wcale nie jest niemożliwe. Jednak zanim użytkownik do tego doprowadzi, musi określić metodę pomiaru realizacji swojego żądania.

Wskaźniki i ich interpretacja

Podstawowym problemem, przed którym stoi analityk, jest konieczność zdefiniowania pojęć. Jeżeli dopuści do jakiejkolwiek dowolności interpretacji pytania - kierowanego do dostawcy - nie ustrzeże się manipulacji z jego strony. Podstawowe pojęcie to "użytkownik". Oznacza ono jakąkolwiek organizację, która w danym momencie korzysta z systemu i/lub usług wsparcia wdrożenia lub też na podstawie jakiejkolwiek zawartej już umowy ma taki zamiar. W kategorii tej mieszczą się też takie organizacje, które niezadowolone z systemu/usług nie rozwiązały jeszcze stosownej umowy.

Wskaźnik Komercyjny (WK)

Tworzy go stosunek liczby użytkowników komercyjnych danego systemu do liczby użytkowników ogółem tego systemu.

Użytkownicy ogółem (Uo): wszystkie organizacje, które zawarły porozumienie (kontrakt) o nabyciu licencji na użytkowanie systemu lub jakichkolwiek jego części dla jakichkolwiek celów (przedsiębiorstwa dla wspomagania zarządzania, uczelnie dla celów edukacyjnych, partnerzy dostawcy lub dystrybutorzy dla celów demonstracyjnych itp.). Kontrakt (porozumienie) mógł być podpisany w Polsce lub za granicą w celu zastosowania systemu w jednej lub wielu siedzibach organizacji. W praktyce o liczbie użytkowników ogółem będzie informowała podawana zazwyczaj publicznie przez dostawców liczba tzw. instalacji.

Użytkownicy komercyjni (Uk): tylko ci spośród użytkowników ogółem, którzy podpisali kontrakt na użytkowanie (licencja i wdrożenie) systemu lub jakiejkolwiek jego części dla celów, dla jakich ten system powstał, tzn. dla wsparcia zarządzania. W praktyce - organizacje nastawione na zysk. Analityka w tym momencie nie interesuje, czy i ile sprzedanych systemów uruchomiono.

Interpretacja: wskaźnik WK pozwala porównać rzeczywiste nasycenie portfela każdego z dostawców tymi projektami wdrożenia systemu, które wymagają od niego praktycznej wiedzy o funkcjonowaniu przedsiębiorstwa i systemu oraz zarządzaniu projektem wdrożenia w "biznesowym" środowisku. Innymi słowy, wskaźnik jest jednym z elementów informacji o źródłach doświadczeń.

Komentarz: praktyka funkcjonowania przemysłu informatycznego ukształtowała kilka typów kanałów dystrybucji systemów ERP/MRP II i usług wsparcia wdrożenia. Konstruując wskaźnik dla grupy firm, które porównujemy, należy ten fakt uwzględnić poprzez budowę wariantów WK. Przedstawiona konstrukcja WK ma charakter podstawowy. Analizę można pogłębić, zastępując liczbę zawartych porozumień (ogólnych i komercyjnych) liczbą po raz pierwszy przekazanych użytkownikom tzw. kodów autoryzacji. Dane na ten temat nie są zazwyczaj publicznie ujawniane. Wartość wskaźnika ulegnie zmianie, uwzględniać jednak będzie nie tylko liczbę, ale i zakres zawartych porozumień.

Wskaźnik Obsługi Krajowej (WOK)

Tworzy go stosunek liczby użytkowników krajowych do użytkowników komercyjnych.

Użytkownicy krajowi (Ukr): ci spośród użytkowników komercyjnych, którzy decyzję o wyborze systemu i/lub usług podejmują samodzielnie w Polsce. W opozycji do tej kategorii są:

Użytkownicy międzynarodowi (Um): ci spośród użytkowników komercyjnych, którzy decyzję o zastosowaniu danego systemu niejako importowali. Została ona podjęta w międzynarodowej centrali danej firmy w wyniku istnienia między tą firmą a dostawcą systemu umowy paneuropejskiej lub światowej o użytkowaniu tego systemu w firmach zależnych.

Infrastruktura wdrożeniowa: siły fachowe (konsultanci, doradcy, informatycy, kierownicy projektów), stosowane procedury, narzędzia, metodyka wdrożenia, kultura organizacyjna dostawcy itp.

Komentarz: trzeba podkreślić, że kryterium wyróżnienia kategorii "użytkownik krajowy" nie jest strukturą kapitału (polski/zagraniczny). Użytkownikiem krajowym może być także firma o stuprocentowym kapitale zagranicznym. Przyczyną zwrócenia uwagi na pochodzenie decyzji (kraj/zagranica) są natomiast różnice między obydwiema kategoriami użytkowników w przywiązywaniu znaczenia do potencjału infrastruktury wdrożeniowej dostawcy. Użytkownik krajowy będzie bezwzględnie wymagał systemu w języku polskim, współpracy z polskimi konsultantami, dokonywania modyfikacji w Polsce, zgodności systemu z polskimi przepisami. Aby te oczekiwania spełnić, dostawca systemu/usług musiał przez dłuższy czas rozwijać swoją infrastrukturę wdrożeniową. Dla użytkownika międzynarodowego wymienione elementy też są oczywiście ważne, jednak podstawowe znaczenie ma zgodność standardu wsparcia zarządzania między firmą macierzystą a zależną (np. raportowanie), który to standard narzuca system stosowany w firmie macierzystej. Odmienne kryteria decyzji kupna systemu w obydwu grupach użytkowników wpływają w efekcie na różnice w strategii rozwoju (a więc i istniejącego potencjału) infrastruktury wdrożeniowej dostawców nastawionych na obsługę danej kategorii użytkowników. Stąd też interpretacja wskaźnika WOK.

Interpretacja: wskaźnik ilustruje strategię rozwoju infrastruktury wdrożeniowej, realizowaną przez danego dostawcę systemu.

Wskaźnik eksploatacji (WE)

Tworzy go stosunek liczby użytkowników eksploatujących system lub jakąkolwiek, logicznie wydzieloną jego część do liczby użytkowników komercyjnych.

Użytkownik eksploatujący system lub jakąkolwiek, logicznie wydzieloną jego część (Ue): ci spośród użytkowników komercyjnych, którzy eksploatują system w codziennej pracy w celach roboczych. Nie będzie więc eksploatacją uruchomienie kilku stanowisk dla celów szkoleniowych lub testowych. W praktyce za start eksploatacji systemu można uznać moment, w którym rozpoczęto rejestrację bieżących zdarzeń gospodarczych, zachodzących w przedsiębiorstwie.

Komentarz: faktem jest, że począwszy właśnie od wskazanego wyżej momentu użytkownik ma możliwość uzyskiwania korzyści, o których wcześniej wspomniano. Trudno przy tym przypuszczać, aby ktokolwiek podejmował wysiłek rejestracji danych bez wcześniejszego przygotowania systemu do ich przetwarzania. Jednak definicja musi budzić wiele wątpliwości. Trzeba przyznać, iż wdrażanie systemu klasy ERP/MRP II przebiega w Polsce z reguły etapami (np. najpierw informatyzacja sfery finansowej, następnie logistyki, na końcu zaś produkcji), zaś w ramach tychże etapów poszczególne programy użytkowe też nie są uruchamiane jednocześnie. Wyjściem z tej pułapki metodologicznej może być przesunięcie analizy z poziomu "system" na poziom "podsystem" (np. zespół modułów obsługujących sferę produkcyjną) lub nawet "moduł" (konkretny program użytkowy, np. planowanie potrzeb materiałowych). Jednak w takiej sytuacji również inne wskaźniki muszą być budowane na identycznym poziomie.

Interpretacja: wskaźnik WE informuje o efektywności infrastruktury wdrożeniowej dostawcy X przeznaczonej dla systemu Y. O ile zechcemy przejść na bardziej szczegółowy poziom analizy, powyższą formułę należy uzupełnić słowami: "...jeżeli chodzi o obsługę danej sfery".

Przedstawiona propozycja Oceny Skuteczności Usług wymaga pewnej znajomości zasad funkcjonowania rynku systemów ERP/MRP II. Już choćby przez ten fakt może okazać się dość pracochłonna. Czy warto angażować siły w jej sporządzenie? No, cóż... Gra idzie zazwyczaj o dziesiątki miliardów starych złotych. Taka jest cena błędu.

Marek Dziduszko jest zastępcą redaktora naczelnego "Gazety Bankowej".

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200