Zapytaj eksperta

Na pytania Czytelników, dotyczące tworzenia i interpretacji wskaźników ekonomicznych, odpowiada Andrzej Góralczyk, szef Instytutu Produktywności IDG Poland.

Na pytania Czytelników, dotyczące tworzenia i interpretacji wskaźników ekonomicznych, odpowiada Andrzej Góralczyk, szef Instytutu Produktywności IDG Poland.

Czy wartość dodaną w ogóle można zmierzyć? Przecież tylko klient wie, co dał mu zakup oprogramowania czy sprzętu. A jeśli nic mu to nie dało?

To rzeczywiście dwie strony medalu, gdyż wartość dodana ma dwa aspekty. Na ogół dość łatwo jest przeprowadzić ekonomiczną ocenę wartości dodanej, jeśli tylko zgodzimy się, że dla celów zarządzania wystarczą liczby przybliżone. Tak zwana wartość dodana biznesowa to różnica pomiędzy przychodami ze sprzedaży produktu (wyrobu, usługi) a wartością wszystkiego, co zakupiliśmy spoza przedsiębiorstwa, aby ów produkt nabyć bądź wytworzyć. Musimy zakupić zwłaszcza materiały i towary, energię, usługi obce.

Rachunek wartości dodanej to nie jest rachunek kosztów, po stronie obciążeń nie wliczamy więc kosztu pracy przedsiębiorcy i jego pracowników. Mierzymy przecież tylko wartość, jaką dodaliśmy do zakupionych dóbr, przetwarzając je w produkt sprzedany klientowi.

Wartość dodana ma sens tylko w odniesieniu do towarów i produktów rzeczywiście sprzedanych. Dopóki klient nie kupi produktu, dopóty wartość dodana wynosi zero. W handlu główną pozycję zakupów stanowią towary, wartość dodana jest więc w przybliżeniu równa zrealizowanej marży.

Drugi aspekt to wartość odczuwana przez klienta. Jeśli klient nie dostrzega walorów przedmiotu, za który zapłacił, albo ma poczucie, że przepłacił, możemy spodziewać się utraty jego zaufania do nas jako sprzedawców, a nawet do produktów teleinformatycznych w ogóle.

To przykre, ale piętą achillesową sektora teleinformatycznego jest zbyt powszechne ignorowanie wartości dostarczanych dla klienta i ocenianych z punktu widzenia klienta. Często słyszymy od nich np. że "komputery ułatwiają pracę, ale utrudniają życie".

Powodów tej słabości jest kilka. Przede wszystkim mamy tendencję do oceniania walorów naszych produktów z naszego punktu widzenia. Zbyt często uważamy, że skoro sprzedajemy cuda techniki i technologii, klient powinien to dostrzegać i cenić równie wysoko, jak my. Tymczasem klient niczego nie powinien, on potrzebuje użytecznego i niezawodnego produktu, którego nazbyt często nie otrzymuje.

Ktoś mógłby bronić punktu widzenia dostawcy mówiąc, że "obiektywnie" rzecz biorąc sprzedawane produkty są dobre, np. funkcjonalnie. Jeśli tak jest rzeczywiście, to brakuje tym produktom ważnej cechy. Nie przekonują o tym klienta, ponieważ nie niosą ze sobą wystarczająco atrakcyjnego "doświadczenia użytkownika". Jest to kardynalny i bardzo powszechny błąd projektantów wyrobów informatycznych, nie spotykany w produktach przeznaczonych na rynki masowe. Może dlatego komputery i oprogramowanie nie są wyrobami masowymi.

Są jeszcze inne czynniki budujące poczucie wartości produktu u klienta. Na przykład obecnie coraz większego znaczenia nabiera dostarczanie produktu. Zagadnienie jest obszerne, obejmuje takie kwestie jak szybkość, kompletność i terminowość dostaw, sposób dostarczania, ułatwienia w zamawianiu produktu przez klienta itd. Warto zwrócić uwagę, że doskonałe dostarczanie stało się dźwignią sukcesu jednej z najbardziej dynamicznych firm światowych - Dell Computer. Dzisiaj dostarczanie staje się kluczową kwestią w handlu wspieranego Internetem. Doskonałe dostarczanie jest nośnikiem wartości dodanej dla klienta, podobnie jak jakość techniczna produktu i "doświadczenie użytkownika".

Co oznacza sytuacja, w której sprzedaż rośnie, ale spadają zyski albo rosną mniej dynamicznie?

U producentów najczęściej oznacza to eksplozję kosztów, a więc konieczność radykalnej restrukturyzacji głównych procesów. Konieczność ta może dotyczyć zarówno poszczególnych firm, jak i całego sektora.

W handlu na dojrzewających rynkach również mamy do czynienia z pewnym wzrostem kosztów, lecz spadek opłacalności następuje zazwyczaj na skutek wyniszczającej wojny cenowej, która nakazuje obniżać marże. Obecnie w Polsce zjawisko to występuje w dystrybucji i handlu detalicznym produktami informatycznymi.

Jednak przyczyny i znamiona kryzysu sektora teleinformatycznego są bardziej złożone i dalekosiężne, toteż można powiedzieć, że sektor znajduje się na "dziejowym zakręcie". Drugim powodem spadku zysków jest bowiem reorientacja rynków. Wielka, wręcz historyczna zmiana potrzeb rynkowych. Ostatnie badania wskazują, że e-commerce na rynku konsumpcyjnym jeszcze nie osiągnął dna, a już kryzys ogarnia kolejno produkcję procesorów i komputerów osobistych. Następne będą z pewnością sieci. Przewiduję, że za kilka miesięcy stanie się tu widoczna słaba recesja, która będzie powoli pogłębiać się przez kilka lat. W związku ze zmianą potrzeb rynkowych również całkowitej redefinicji będą musiały ulec strategie biznesowe.

Obecnie systemy informatyczne dla menedżerów są nastawione na "produkcję" informacji, a także wstępnych analiz. Obserwuję, że czasem skutek jest odwrotny do zamierzonego. Menedżerowie nie umieją podjąć decyzji, bo czekają na ciągle nowe analizy albo kolejne dane. Czy jest złoty środek: nie za mało informacji, ale też nie nadmiar?

Tak, istnieje złoty środek. W praktyce dobrego zarządzania mają miejsce dwa przypadki, w których dość precyzyjnie określa się optymalną liczbę kontrolowanych wskaźników ekonomicznych.

Pierwszy występuje w sytuacjach, gdy z punktu widzenia całości biznesu sensowne jest ograniczenie zarządzania do najniższego operacyjnego poziomu. Inaczej mówiąc, gdy decyzje krótkoterminowe, z dnia na dzień, a nawet z godziny na godzinę, odgrywają znacznie większą rolę niż decyzje średnio- i długoterminowe. Są to sytuacje działania na gorącym rynku, na którym popyt znacznie przekracza podaż, więc liczą się tylko wielkość produkcji i wielkość sprzedaży. W takich okolicznościach najbardziej efektywne jest zarządzanie nazywane niekiedy zarządzaniem zorientowanym na rezultaty. Jeśli przedsiębiorstwo nie wykorzystuje nadwyżek na cele rozwojowe, lecz po prostu działa rutynowo, do podejmowania właściwych decyzji wystarczą wówczas dwa lub trzy wskaźniki.

Przykład: kopalnia węgla w gospodarce niedoboru (centralnie sterowanej). Do skutecznego sterowania kopalnią potrzeba tylko dwóch liczb: wielkości wydobycia dziennego oraz wielkości wysyłek lub zapasu na placu na koniec dnia (zmiany). Pomijam tu chore sytuacje, gdy występują zatory płatnicze, trzeba więc jeszcze kontrolować status realizacji zamówień i spływ płatności.

Jeśli nie ma barier administracyjnych, np. cen regulowanych, to naturalną reakcją przedsiębiorcy na nie zaspokojony popyt jest jak najszybsze zwiększanie zakupów i rozkręcanie sprzedaży. Podejmowanie decyzji jest wówczas obarczone znacznym ryzykiem, dlatego trzeba dodatkowo kontrolować krótkoterminowe przepływy gotówki oraz jeden lub dwa wskaźniki stabilności finansowej. Czyli wystarczą 4 lub 5 wskaźników. W skrajnych przypadkach spotykamy ryzykowne zarządzanie biorące pod uwagę tylko jeden parametr: stan gotówki. Potocznie mówimy o nim "zarządzanie według kasy". Jest ono bardzo skuteczne w szczególnych przypadkach i przez niezbyt długi okres (3-5 lat).

Poświęciłem dużo miejsca zarządzaniu opartemu na niewielu liczbach, ponieważ w sektorze teleinformatycznym w Polsce większość małych, a nawet większych firm jest zarządzana w ten sposób. Ignorowanie wskaźników w okresie silnego wzrostu sprzedaży dającej wysoką marżę jest uzasadnione na krótką metę i przyczynia się w pewnym stopniu do wysokiej efektywności ekonomicznej działania. Jednak z punktu widzenia szans rozwoju nie możemy oceniać tego pozytywnie.

Drugi przypadek to działanie w warunkach typowych, czyli na rynku trudnym, stale narażonym na stagnację lub recesję. Do zarządzania w takich warunkach najlepsza jest "magiczna liczba" - 31, najwyżej 32 wskaźniki kontrolowane na poziomie szefa przedsiębiorstwa.

Nazywamy takie liczby magicznymi, ponieważ trudno byłoby podać pełne naukowe wyjaśnienie, dlaczego akurat tyle. Magiczną liczbę wyznacza praktyka. Wielokrotnie sprawdziłem, że jeśli wskaźników jest więcej niż 32, obraz biznesu staje się nieczytelny, zbyt szczegółowy, trudny do interpretacji. W polskiej literaturze z dziedziny rachunkowości zarządczej lansowano przed kilku laty pogląd, według którego ponoć 12 lub 18 wskaźników wystarcza do podejmowania decyzji o niezbyt długim horyzoncie czasowym. To nieprawda, również to sprawdziłem. Zbyt ogólny obraz biznesu naraża decydenta na duże ryzyko błędów.

W Polsce sztuka zarządzania opartego na rachunkowości menedżerskiej jest prawie zupełnie nie znana. Zamiast tego upowszechniają się rozmaite "wytrychy" w rodzaju kontrolingu w wydaniu schematycznym, "produkującego" setki wskaźników i wielkości kierunkowych, które musi potem kontrolować rzesza menedżerów i specjalistów. Menedżerowie nie umieją poruszać się wg plejady wskaźników, wydaje się im więc, że potrzebują ich coraz więcej. Firmy informatyczne prześcigają się w "bogactwie" zestawień, analiz cząstkowych, opcji itd. Być może jest w tym 100% informatyki, ale blisko 0% informacji menedżerskiej. Najwyższa pora, aby IT w naszym kraju stało się technologią informacyjną, a nie tylko informatyczną.

Praktyczny klucz do pełnego sukcesu to umieć dobrać 31 najbardziej trafnych wskaźników dla szefa przedsiębiorstwa i nauczyć go rozumienia zawartych w nich informacji.

--------------------------------------------------------------------------------

Pytania do naszych ekspertów prosimy przesyłać na adres: [email protected]

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200