Metody oceny inwestycji informatycznych w e-biznesie

Media, zarówno po drugiej stronie Atlantyku, jak i rodzime, coraz częściej informują o fali bankructw firm tzw. Nowej Gospodarki. Jedną z podstawowych przyczyn takiego biegu wydarzeń jest brak jakichkolwiek porównywalnych wzorców, pozwalających określić przyszłe zachowania konsumentów, co uniemożliwia przewidzenie przychodów w kolejnych latach inwestycji.

Media, zarówno po drugiej stronie Atlantyku, jak i rodzime, coraz częściej informują o fali bankructw firm tzw. Nowej Gospodarki. Jedną z podstawowych przyczyn takiego biegu wydarzeń jest brak jakichkolwiek porównywalnych wzorców, pozwalających określić przyszłe zachowania konsumentów, co uniemożliwia przewidzenie przychodów w kolejnych latach inwestycji.

Można zacząć od banalnego stwierdzenia, że ocena opłacalności inwes-tycji informatycznych nie jest łatwa, a czasami wręcz niemożliwa. Wynika to z konstrukcji prostych i złożonych metod oceny inwestycji (uznanych i propagowanych jako standardy przez UNIDO), a opartych na prognozach przychodów i kosztów przyszłych okresów. Należy więc dokładniej przyjrzeć się tym metodom.

Najogólniej rzecz ujmując mamy do czynienia z dwoma typami metod (wspomnianymi wcześniej): metodami prostymi, nie uwzględniającymi zmiany wartości pieniądza w czasie, oraz metodami złożonymi (dyskontowymi), w przypadku których czynnik ten jest brany pod uwagę. Ze względu na to, że wielkie projekty informatyczne mają zazwyczaj wieloletni cykl realizacji, tylko ta druga bardziej zaawansowana grupa metod może ułatwić udzielenie odpowiedzi na pytanie, czy z ekonomicznego punktu widzenia warto podejmować taki projekt. W drugiej grupie metod lepiej uwzględniona jest opłacalność inwestycji w momencie jej rozpoczęcia, gdyż czynnik dyskontujący zależy od prognozowanej w danym przedziale czasowym stopy procentowej, fundamentalnego czynnika makroekonomii.

Metody proste

Do najczęściej stosowanych metod prostych oceny inwestycji należą:

badanie okresu zwrotu nakładów

badanie prostej stopy zwrotu

poszukiwanie BEP (punktu "przełamania").

Metody te służą zazwyczaj do zgrubnej oceny przedsięwzięcia, gdyż nie uwzględniają zmiany wartości pieniądza w czasie. W przypadku okresu zwrotu nakładów i prostej stopy zwrotu wręcz zakłada się te wielkości jako wytyczne do konstruowania projektu, a następnie po uzyskaniu rzeczywistych wyników porównuje je z założonymi. Są to bowiem wielkości podstawowe, aby ocenić, jak efektywnie "pracował" kapitał zainwestowany w projekt. Niestety, nie zawsze ta ocena (zysk z projektu) jest możliwa, bo często korzyści mają charakter pośredni i widoczne są w innych obszarach działalności lub po wielu latach.

Łatwiej dokonać ocen, gdy realizacja projektu trwa krótko, a przychody i koszty są zależne od łatwo definiowalnej zmiennej (lub zmiennych w przypadku modelu wielowymiarowego). W tego typu projektach najczęściej stosuje się metodę BEP, gdyż pozwala określić ona np. przy jakiej liczbie jednostkowych operacji (lub np. sztuk dokumentów) przedsięwzięcie staje się opłacalne tj. krzywa przychodów przetnie się z krzywą kosztów w przypadku modelu jednowymiarowego.

W przypadku modeli wielowymiarowych mówilibyśmy o przecięciu się hiperpłaszczyzn.

Metody te opracowane pod kątem przydatności do analizy przemysłowych programów produkcji, gdzie wynikiem procesu inwestycyjnego jest urucho- mienie produkcji wielkonakładowych serii konkretnych wyrobów (liczonych w sztukach, metrach czy tonach), mają ograniczone zastosowanie w projektach informatycznych. Efekty tych ostatnich najczęściej mają pośredni wpływ na tak wyrażone efekty produkcji, aczkolwiek istnieją obszary, gdzie mają bezpośrednie zastosowanie, zwłaszcza tam, gdzie wynikiem projektu informatycznego jest na przykład masowa obróbka dokumentów przesyłanych drogą elektroniczną.

Metody złożone

Spośród złożonych metod oceny inwestycji można wymienić:

metodę zaktualizowanej wartości netto (NPV)

metodę wewnętrznej stopy zwrotu (IRR).

Metoda NPV, w dużym skrócie, polega na obliczeniu tzw. finansowych przepływów netto i zdyskontowania ich do roku zerowego (tego, w którym rozpoczyna się inwestycja), a następnie zsumowania wszystkich w ten sposób uzyskanych danych.

Metoda NPV

Operacja dyskonta może być określona jako odwrotność operacji procentu składanego i polega na podzieleniu wielkości podlegającej dyskontowi przez czynnik:

1/(1 + p1)x(1 + p2)x...x(1 + pi)

gdzie p1,..., pi oznaczają stopy procentowe w kolejnych okresach.

W przypadku równych przedziałów czasu, w których dokonujemy obliczenia współczynnika dyskontowego, a stopa procentowa nie zmienia się w tych okresach, wzór przybiera postać:

V = 1/(1 + pi)n

Możemy więc obliczyć nasze NPV (Net Present Value) za cały okres inwestycji:

NPV = V0 + V1 + ... + Vn

Inwestycję uważamy za opłacalną, gdy NPV > 0.

W miarę upływu czasu od momentu rozpoczęcia inwestycji kolejne składniki mają coraz mniejszy wpływ na sumę (szereg jest zbieżny). Tak więc w praktyce poprzestaje się na projekcji kilku, kilkunastu lat inwestycji, z wyjątkiem przemysłu wydobywczego, gdzie trzeba uwzględnić planowane nakłady na rekultywację terenów po zakończeniu eksploatacji złóż. Nietrudno zauważyć, że taka działalność wymaga nakładów (powoduje ujemne przepływy pieniężne) i nie przynosi przychodów (nie uwzględniając ewentualnych przychodów ze sprzedaży składników majątkowych likwidowanego przedsiębiorstwa).

Wspominam o tym nie bez związku z tzw. Nową Gospodarką, gdyż media po drugiej stronie Atlantyku informują o fali bankructw firm działających w tym właśnie obszarze.

Różnica polega na tym, że w przypadku przemysłu wydobywczego zakłada się, iż działalność prowadzona w poprzednich latach doprowadzi jednak do uzyskania dodatniego NPV (co jest warunkiem powodzenia przedsięwzięcia), natomiast w wypadku przytoczonych przykładów tzw. dotcomów mamy do czynienia z nie planowanym procesem załamywania się biznesplanu.

Powracając do zewnętrznego czynnika makroekonomii, mającego zasadniczy wpływ na inwestycję, to jest stopy procentowej, trzeba zauważyć, że wbrew obiegowej opinii nie jest ona wykładnikiem jedynie inflacji, lecz odzwierciedla także:

podaż i popyt na kapitał w warunkach swobodnego rynku

ryzyka

polityki pieniężnej państwa

procesów inflacyjnych.

Metoda NPV w swoich rozlicznych wariantach jest powszechnie stosowana (zgodnie ze standardami UNIDO) do oceny projektowanych przedsięwzięć gospodarczych przez instytucje finansowe, decydujące o zaangażowaniu własnych bądź powierzonych środków w oceniane przedsięwzięcie.

Do uzyskania możliwie pełnego obrazu projektu należy przeprowadzić wiele obliczeń, biorąc pod uwagę potencjalnie możliwe zmiany różnych parametrów, w tym stopy procentowej. Przeważnie dopiero rozważenie kilkunastu wariantów daje pełny obraz potencjalnych możliwości i zagrożeń projektu. Zwłaszcza warto przeanalizować zachowanie krzywej NPV w funkcji kluczowych dla projektu parametrów w pobliżu jej przecięcia z osią, na której te parametry są odłożone. Stromy jej przebieg sygnalizuje potencjalne zagrożenia rentowności projektu w przypadku nieosiągnięcia założonych wielkości "programu produkcji", zobrazowanych omawianym parametrem.

Bariera braku przeszłości Nowej Gospodarki

Oceniając przydatność tej metody do oceny opłacalności projektów informatycznych, można wymienić jej następujące ograniczenia:

trudność w określeniu przychodów w kolejnych latach inwestycji

trudność w określeniu kosztów nowej technologii w dłuższych interwałach czasu.

Zwłaszcza określenie przychodów w kolejnych latach inwestycji może być (i wygląda na to, że jest) poważnym problemem w jakimkolwiek projekcie informatycznym, a w przypadku Nowej Gospodarki szczególnie. Brak bowiem jakichkolwiek porównywalnych wzorców pozwalających określić przyszłe zachowania konsumentów. Jedyne dane, na których można się opierać, pochodzą z przewidywań firm konsultingowych lub wyników ankietowych badań rynku. Na podstawie regularnie wykonywanych badań, można zauważyć, że klienci sektora bankowego w Polsce, zarówno firmy, jak i klienci indywidualni szybko zmieniają opinie i preferencje. Wiąże się to z faktem postępującej edukacji klienta w wyniku korzystania z usług banków wprowadzających nowe produkty oraz upowszechnienia się wiedzy na temat nowych technologii.

Trudno więc opierać się na tych oczekiwaniach i wynikach, konstruując mozolnie projekcję przychodów i kosztów w kolejnych latach. W przypadku projektów Nowej Gospodarki właściwsza wydaje się metoda oparta na szacowaniu kosztów i utworzeniu rezerw na wypadek niepowodzenia przedsięwzięcia. Takie podejście już określa, kto prawdopodobnie stanie się zwycięzcą w zawodach Nowej Gospodarki. Będą nimi wielkie instytucje (także finansowe), wywodzące się z jak najbardziej klasycznej starej gospodarki. Tylko one bowiem są w stanie przeznaczyć odpowiednio duże nakłady na takie projekty i zabezpieczyć rezerwy na wypadek ich fiaska.

A fiasko to jest bardzo prawdopodobne, zwłaszcza w początkowym etapie. Nakłady poniesione na tak spektakularne przedsięwzięcia, jak Amazon.com czy niemiecki Bank 24, jak wiadomo jeszcze się nie zwróciły.

Bankowe przykłady

Przykład Banku 24 wart jest dokładniejszej analizy. Założony przez macierzysty Deutsche Bank miał z założenia być bankiem typu Direct, a więc oferującym klientom wyłącznie zdalne usługi. Podjęta nie- dawno decyzja o połączeniu tego banku siecią oddziałów DB i dokonaniu segmentacji klientów może świadczyć o tym, że klienci pochodzący z jednego z najbardziej zaawansowanych technologicznie państw Europy nie byli gotowi w pełni zaakceptować takiego rozwiązania.

Z całą pewnością DB był w stanie ponieść koszty takiego eksperymentu technologicznego, a po niezbędnych korektach, w niedługim czasie osiągnąć zysk.

Powstałe w ostatnich latach placówki tzw. Mc-banków w Polsce w postaci sieci STAREO (Standard Retail Outlet), Millennium czy też Handlobanku wyznaczyły kierunek reformy ogromnych i zorganizowanych według nie przystających do nowych czasów procedur, ale jednocześnie uświadomiły, jakie są to koszty i jaki jest okres zwrotu nakładów takiej sieci.

Stało się oczywiste, że pomysł ten realizowany przez kolejne banki raczej nie prowadzi do sukcesu. Trzeba mieć bowiem świadomość, że mimo ogromnego potencjału wzrostu rynku usług bankowych (odsetek społeczeństwa nie posiadający jeszcze rachunków osobistych), w obszarze tym pozostała w zdecydowanej większości uboższa część społeczeństwa. Trudno jest dziś w świetle oczekiwanych wielkich zmian w przemyśle ciężkim i rolnictwie przewidzieć, jaka będzie przyszłość i tym samym perspektywy finansowe. W istocie więc walka rozegra się przede wszystkim o klientów już posiadających rachunki w innych bankach, a także o ludzi młodych, rozpoczynających kariery zawodowe.

Właściwa wydaje się więc metoda przyjęta przez DB w Niemczech, polegająca na budowaniu banku wirtualnego, a następnie uzupełnieniu go siecią urządzeń samoobsługowych (kioski, które powstawały już w połowie lat 90. w USA, zazwyczaj przy wejściach do hipermarketów). Ostatnim krokiem może być utworzenie sieci Mc-banków bądź integracja ich z istniejącymi już oddziałami.

Nie sposób nie wspomnieć o podstawowym warunku potrzebnym do realizacji takiego kanału dystrybucji (czy sieci), jakim jest bank wirtualny. Warunkiem tym jest posiadanie sprawnego i wydajnego systemu centralnego (lub może w przyszłości równoważnemu mu funkcjonalnie systemu rozproszonego). Bez niego nie można wdrożyć bezpiecznie i efektywnie usług dla klientów. Fakt ten stawia banki nie posiadające jeszcze takiego rozwiązania w trudnej sytuacji. Rozwiązaniem może być właśnie budowa od podstaw wydzielonego detalicznego banku wirtualnego.

Nie można wreszcie pominąć wcześniej wspomnianego czynnika, a więc stopy procentowej syntetycznie określającej stan gospodarki.

Niepewność co do jej przyszłości, niejasność co do rzeczywistego stanu gospodarki europejskiej, a polskiej w szczególności, nakazują dużą ostrożność w analizie wszelkich projekcji inwestycyjnych, tych z Nowej Gospodarki nie wyłączając. Drastyczne zmiany zachodzące w gospodarce czy wręcz prognozowany przez niektórych kryzys walutowy mogą uczynić wszelkie projekcje bezprzedmiotowymi. Trzeba bowiem stale pamiętać, że podstawowym założeniem najobszerniej omawianej w tym artykule metody NPV jest przewidywalne zachowanie stopy procentowej w czasie. Gdy warunek ten nie jest spełniony, należy sięgnąć raczej po narzędzie z Teorii Katastrof.

Metoda IRR

Kilka słów należy poświęcić zastosowaniu metody IRR (wewnętrznej stopy zwrotu), będącej w pewnym sensie odwrotnością metody NPV. Polega ona na badaniu, przy jakiej stopie wartość NPV wynosi zero. Praktycznie problem rozwiązuje się metodą iteracyjną, szukając miejsca zerowego we wcześniej określonych wartościach parametrów, dla których NPV jest ujemne i dodatnie (np. metodą siecznych). Pewną pułapką tej metody może być fakt, że dla niektórych inwestycji krzywa NPV może mieć kilka miejsc zerowych. Taki przypadek jednak praktycznie nie występuje w projektach informatycznych, dla których, jak wspomnieliśmy, strumień dodatnich przepływów pojawia się ze znacznym opóźnieniem w stosunku do początku inwestycji. Zaletą tej metody jest możliwość wyboru wariantów projektów, dających największą wewnętrzną stopę zwrotu.

Czekając na doświadczenia

Podsumowując rozważania przeplatane z konieczności ogólnymi rozważaniami na temat przydatności ogólnie uznanych i rekomendowanych przez UNIDO metod oceny inwestycji, nie sposób oprzeć się wrażeniu, że na szczegółowe metody analiz inwestycji jest trochę za wcześnie z powodu braku (lub znikomych) przesłanek, pozwalających określić kluczowe dla nich parametry w przyszłości. Mamy więc do czynienia ze swoistą strategią przeżycia ("musimy to robić, bo ma to nasza konkurencja"), pozostawiając pole metodom analitycznym dla lepiej zbadanych i zdeterminowanych obszarów.

Nie ulega jednak wątpliwości, że w miarę zdobywania doświadczeń z sukcesów i porażek kolejnych projektów (tych będzie znacznie więcej!) metody te znajdą w końcu zastosowanie także w odniesieniu do projektów Nowej Gospodarki.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200