Big Data wstrząśnie światem finansów

Metody ilościowe, wielkie zbiory danych i algorytmy do ich analizy przeorały rynek bankowości inwestycyjnej. Komputery podejmują decyzje o transakcjach w ciągu milisekund. Pomyłki są kosmicznie drogie. Najdroższa spowodowała wyparowanie z amerykańskiej giełdy kilkudziesięciu miliardów dolarów.

O Big Data mówimy wówczas, gdy zamierzamy analizować (często w czasie rzeczywistym) olbrzymie wolumeny danych, które są różnorodne, szybko się zmieniają i mają znaczną wartość dla biznesu. Big Data opisuje się często poprzez określenie 4V, czyli: Volume - duża ilość danych, Variety - duża różnorodność danych, Velocity - szybkość pojawiania się nowych danych, Value - wartość dla biznesu.

Wiele przedsiębiorstw oparło swoje modele biznesowe na przetwarzaniu takich właśnie zasobów. Dla firm, takich jak Google, Amazon, czy Facebook, głównym obszarem działalności biznesowej jest właśnie masowa analiza gromadzonych danych o swoich klientach i użytkownikach. W Big Data zaangażowały się również tradycyjne firmy - banki i telekomy analizujące wzorce zachowań swoich konsumentów, sprzedawcy analizujący rotację towarów na półkach i optymalizujący ich zakupy, twórcy programów lojalnościowych, dostawcy logistyczni usprawniający łańcuchy dostaw.

Zobacz również:

  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • Kwanty od OVHCloud dla edukacji
  • Inteligentna chmura danych

Na rynku pojawiają się obecnie interesujące rozwiązania technologiczne pozwalające szybciej analizować duże zbiory danych. Mowa tutaj zarówno o procesorach graficznych GPU (np. firmy NVIDIA), które są w stanie zrównoleglić obliczenia, jak i o szybkich, efektywnych bazach danych typu NOSQL (np. Cassandra).

Nie wystarczy doświadczenie

Gwałtowny wzrost zainteresowania masową analizą danych na świecie został początkowo niemalże całkowicie przeoczony przez branżę inwestycyjną. Na rynkach finansowych kluczem do osiągnięcia ponadprzeciętnego zysku jest asymetria informacji. Warunkiem, aby inwestor mógł zarobić ponadprzeciętną stopę zwrotu, jest posiadanie umiejętności skutecznego wyszukiwania w ogromnym zbiorze danych na temat rynków finansowych czegoś, czego inni inwestorzy nie dostrzegają i nie są w stanie skutecznie ocenić (np. relatywne niedowartościowanie spółki lub waluty w stosunku do innych instrumentów finansowych).

Do niedawna tak zaawansowane rozwiązanie jak masowa analiza danych nie było potrzebne do zarabiania na rynkach finansowych. Tradycyjnie w branży inwestycyjnej od lat czołowe miejsce zajmuje człowiek, który, przynajmniej teoretycznie, dzięki doświadczeniu i intuicji powinien sprawnie "żeglować" po oceanie informacji finansowych i wyszukiwać okazje inwestycyjne. W praktyce inwestorów, którzy potrafią skutecznie zarabiać w długim terminie, jest niewielu. Większość doświadczonych menedżerów zarządzających funduszami najzwyczajniej przegrywa z ryzykiem rynkowym. Przygotowanie merytoryczne i doświadczenie nie jest warunkiem wystarczającym, aby osiągać nadzwyczajne stopy zwrotu.

Potrzebna matematyka

Wielkie częstotliwości i wielkie pieniądze

Wielkie banki inwestycyjne posiadają wysoko wydajne systemy połączone bardzo szybkimi łączami z aplikacjami transakcyjnymi największych amerykańskich giełd - NYSE i NASDAQ. Są w stanie za ich pośrednictwem, w ciągu pojedynczych milisekund, składać zlecenia na papiery wartościowe. Dzięki temu, że decyzja o otwarciu zlecenia wraz z jego realizacją trwa krócej, niż innemu inwestorowi potrzeba na samo zlecenie, inwestorzy wysokich częstotliwości HFT (High Frequency Traders) są w stanie zarabiać więcej.

Im więcej inwestorów HFT, tym krótsze interwały czasowe decydują o wykonaniu transakcji. Centrum obliczeniowe nowojorskiej giełdy NYSE znajduje się w Mahwah w stanie New Jersey, ok. 40 km od Wall Street. Poza serwerami giełdowymi znajdują się tam także serwery poszczególnych banków, które płacą za to, że nie muszą przesyłać informacji do Nowego Jorku i z powrotem. Oszczędności na czasie przy łączach światłowodowych liczone są w pojedynczych milisekundach. Mało tego, żeby wewnątrz budynku nikt nie był uprzywilejowany, inżynierowie w centrum wyrównują odległości między serwerem transakcyjnym a serwerami rożnych banków, dodając w razie potrzeby kilka metrów kabla. W ten sposób mają zniwelować różnice na poziomie tysięcznych części mikrosekundy. Mikrosekunda do jedna milionowa sekundy.

Zmiany na rynkach finansowych idą w kierunkach często mocno związanych z wykorzystaniem najnowszych technologii. Zjawiskiem opartym w całości na informatyce jest wykorzystanie tzw. tradingu wysokich częstotliwości (HFT - high frequency trading). Opiera się on na kolokacji serwerów obok giełd i wykorzystaniu niezwykle szybkiego oprogramowania do prowadzenia transakcji giełdowych. Dzięki temu można uzyskać przewagę szybkości nad innymi uczestnikami rynku, realizując inwestycje tuż przed nimi i w ten sposób generować zyski.

Innym kierunkiem zmian jest tworzenie niezwykle skomplikowanych instrumentów finansowych, których wycena możliwa jest tylko za pomocą modeli komputerowych, a następnie handel tymi instrumentami na szerokim rynku. Gracze rynkowi często nie mają możliwości weryfikacji wycen. To właśnie ta część rynku finansowego była bezpośrednią przyczyną wielkiego kryzysu finansowego i upadłości banku Lehmann Brothers.

Trzecią, najciekawszą grupą firm, które zmieniają rynek, są fundusze hedgingowe oraz departamenty ilościowe banków inwestycyjnych. Do podejmowania decyzji inwestycyjnych wykorzystują one modele matematyczne. Dlatego matematyków pracujących w instytucjach finansowych tradycyjnie nazywa się "quantami" (quants; od quantitative methods).

Miejsce dla najzdolniejszych

Pierwsi "quanci" pojawili się na rynkach finansowych w latach 80. Wykorzystywali moce komputerów i zaczęli opisywać rzeczywistość ekonomiczną za pomocą modeli matematycznych. Dzięki ich umiejętnościom i zastosowaniu technologii, banki, dla których pracowali (np. Salomon Brothers), zaczęły osiągać znaczne zyski.

W latach 90. wykorzystanie metod ilościowych oraz mocy komputerów stało się standardem. Coraz więcej osób odchodziło z bankowości inwestycyjnej, aby stworzyć niezależne firmy - fundusze hedgingowe, które wykorzystywały metody ilościowe do generowania zysków dla swoich założycieli. Stopniowo dochodziło do tego, że banki inwestycyjne i fundusze hedgingowe zaczęły przyciągać najzdolniejszych młodych ludzi o umysłach ścisłych. Do podmiotów tych trafiali i trafiają wybitni inżynierowie, programiści, matematycy. Nie każdy wie, że Jeff Bezos, założyciel Amazona, zaczynał karierę właśnie w renomowanym funduszu hedgingowym - D.E. Shaw.

Szczyt popularności fundusze "quantowe" osiągnęły w ostatnich dziesięciu latach, gromadząc ogromne aktywa (największe fundusze hedgingowe zarządzają dziś dziesiątkami miliardów dolarów należących do inwestorów), jak również wzbudzając uwagę mediów, polityków i opinii publicznej. Obecnie fundusze hedgingowe i banki inwestycyjne stanowią jedno z najciekawszych i najlepiej płatnych miejsc pracy dla zdolnych inżynierów.

Trudne wyzwania

W ostatnich dwóch latach pojawiły się jednak problemy w postaci słabych wyników funduszy ilościowych. Równolegle z ich pogarszaniem się nasiliło się kilka niepokojących, dla dominujących graczy na rynku, trendów:

- Ilość danych wytwarzanych przez rynki finansowe rośnie w sposób wykładniczy. Kolejne skomplikowane produkty inwestycyjne pogłębiają złożoność rynku. Wraz z rozwojem rynku powstaje coraz więcej trudnych do analizy i prognozowania wewnętrznych relacji i zależności; wielu analityków twierdzi, że poziom skomplikowania rynku finansowego przekracza możliwości percepcyjne jakiegokolwiek człowieka. Na dane rynkowe składają się dane zarówno dobrze ustrukturyzowane (zlecenia, ceny, wyniki finansowe, parametry gospodarcze), jak i dane trudne do ustrukturyzowania (informacje, depesze, oczekiwania inwestorów, research inwestycyjny).

- Tradycyjnie wykorzystywane przez "quantów" metody przestają przynosić efekty inwestycyjne. Mowa tutaj o algorytmach służących do wyceny instrumentów finansowych, algorytmach do szukania możliwości arbitrażu (zarówno tradycyjnego, jak i statystycznego), algorytmach służących do podążania za trendem i wielu innych. Algorytmy tradycyjne tworzone są do analizy i interpretacji zachowań ludzi jako zbiorowości, natomiast w dzisiejszych czasach znaczna część obrotu realizowana jest automatycznie. Oznacza to, że obecnie stosowane algorytmy szukają zysków, analizując przede wszystkim zachowania innych algorytmów, a w drugiej kolejności tradycyjnych inwestorów, co powoduje trudne do przewidzenia sprzężenia zwrotne.

- Pojawiły się na rynku fundusze, które zarabiają poprzez próbę oszukania algorytmów innych funduszy. Coraz częściej wykorzystuje się tu metody sztucznej inteligencji i uczenia maszynowego. Systemy informatyczne zaczynają przejmować rolę inwestorów, podejmując decyzje inwestycyjne wpływające często na cały rynek.

- Pojawienie się technologii HFT (High Frequency Trading) spowodowało, że o sukcesie lub porażce inwestycyjnej decydują często nanosekundy - szybkość oprogramowania i łączy telekomunikacyjnych. Dochodzi nawet do tego, że istnieją fundusze szukające optymalnej lokalizacji geograficznej do kolokowania serwerów koło światłowodu na Oceanie Atlantyckim tak, aby być idealnie pomiędzy giełdą w Nowym Jorku i Londynie.

Inwestor też ma szansę

Powyższe trendy powodują, że technologia, z wykorzystaniem Big Data na czele, jest w ostatnich latach jednym z najpopularniejszych tematów na Wall Street. Okazuje się, że w dzisiejszych czasach na rynku są w stanie przetrwać i zarabiać fundusze, które potrafią w czasie rzeczywistym monitorować strukturę rynku i aktywnie poszukiwać okazji inwestycyjnych. Każdy dobry pomysł, każda innowacja jest natychmiast kopiowana przez konkurentów. W tych niezwykle trudnych warunkach tylko firmy, które zbudują kompetencje do masowej analizy danych, będą w stanie osiągać powtarzalnie wysoką stopę zwrotu z inwestycji.

Powyższy trend jest znakomitą okazją na awans zawodowy dla osób o umiejętnościach analizy ogromnych zbiorów danych. Stanowisko Data Scientist stało się w ostatnich latach znakomicie płatną pracą w instytucjach finansowych w USA i Wielkiej Brytanii.

Ważne pytanie brzmi: czy przyszłością branży inwestycyjnej są konkurujące ze sobą algorytmy i technologiczny wyścig zbrojeń? Absolutnie nie! Metody ilościowe działają skutecznie tak długo, jak na rynku istnieją tradycyjni inwestorzy podejmujący decyzje zgodnie ze zdrowym rozsądkiem, czasem ulegający emocjom. Dominacja metod ilościowych prowadzi do sytuacji, w której per saldo osiągają one coraz słabsze wyniki, a najmniej zdolne do adaptacji podmioty po prostu z rynku wypadają. Im większa konkurencja o te same informacje, tym trudniej na nich zarabiać.

Z drugiej strony, działania algorytmów prowadzą do sytuacji, w której racjonalny, tradycyjny inwestor może łatwo zarobić. Przykładem jest tzw. flash crash z 6 maja 2010 r., kiedy niespodziewane sprzężenie zwrotne we wzajemnym oddziaływaniu kilkunastu różnych algorytmów doprowadziło do nieuzasadnionej chwilowej przeceny akcji znanych spółek o kilkadziesiąt procent. Metody ilościowe działają skutecznie tak długo, jak długo po drugiej stronie mają zbiór inwestorów, a więc ludzi podejmujących decyzje w standardowy sposób.

W Polsce tradycyjnie

Rynek inwestycyjny w naszym kraju jest pod względem stosowanych metod i technik ok. 20 lat w tyle za rynkami rozwiniętymi. Zdolni matematycy, statystycy i programiści nie mają co liczyć na etaty w instytucjach, w których dominuje tradycyjna analiza fundamentalna spółek i gospodarki. Działa, co prawda, kilka niewielkich firm zajmujących się tematyką metod ilościowych, ale wszyscy wciąż czekają na rozwój tego niezwykle fascynującego segmentu rynku finansowego. Planowane na kwiecień tego roku wdrożenie nowoczesnego systemu UTP na Warszawskiej Giełdzie Papierów Wartościowych (jest to system transakcyjny wykorzystywany również przez giełdę w Nowym Jorku) pozwoli pierwszym polskim "quantom" pokazać swoje możliwości.

Piotr Smoleń jest prezesem zarządu i partnerem w firmie Turbine Asset Management.

Hedging zarabia na rynkowych wzorcach

Firmy opierające się na wykorzystaniu matematyki i technologii zbudowały sobie w ostatnich latach niezwykle silną pozycję na Wall Street. Założyciele największych, ilościowych funduszy hedgingowych (np. James Simons z funduszu Medallion czy Ray Dalio z funduszu Bridgewater) wdarli się do czołówki listy najbogatszych Amerykanów. Metody ilościowe i komputery odpowiadają obecnie za dominującą większość transakcji realizowanych na rynkach finansowych, chociaż firmy stosujące te metody stanowią niewielką część całego rynku inwestycyjnego.

Najlepszym przykładem firmy zajmującej się metodami ilościowymi jest Renaissance Technologies (RenTec) prowadząca fundusz Medallion, który przez ostatnie 20 lat uzyskiwał średnią stopę zwrotu rzędu 35% rocznie. Obecnie RenTec zarządza 23 mld USD powierzonych im przez inwestorów. Wśród 275 pracowników firmy ok. 100 posiada tytuł doktora nauk ścisłych. Firma opiera się na wykorzystaniu informatyki i algorytmów w celu identyfikacji powtarzających się wzorców na rynkach. Trzonem zespołu Renaissance jest zespół, który odszedł z IBM, gdzie pracował nad algorytmami do rozpoznawania mowy. Na rynkach finansowych, podobnie jak w innych dziedzinach życia, istnieją powtarzające się wzorce, a zachowanie inwestorów jako grupy można skutecznie badać i prognozować. RenTec jest pionierem wykorzystania znacznych mocy obliczeniowych i superkomputerów w inwestycjach.

Jak algorytmy zrobiły przekręt na kilkadziesiąt miliardów dolarów

Wielkie zlecenie sprzedaży akcji koncernu Procter & Gamble sprawiło, że akcje koncernu 6 maja 2010 r. spadły w ciągu kilku minut z 62,12 do 39,37 dolarów. Taki spadek był prawdopodobnie skutkiem błędu popełnionego przez któregoś z maklerów. Ale zadziwiająca była reakcja giełdy: w jednej chwili na łeb, na szyję zaczęły spadać ceny innych walorów. W ciągu kilku minut cena Apple spadła o 22%, 3M o 21%, zaś Accenture - z 40,13 USD do 0,01 (słownie: jednego centa). Indeks NASDAQ stracił w jednej chwili ok 9%, co przy ówczesnej kapitalizacji rynku na poziomie 2 bln USD oznacza, że z giełdy nagle wyparowało kilkadziesiąt miliardów dolarów.

Winne okazały się programy generujące zlecenia typu stop-loss, chroniące inwestorów przed stratami w czasie gwałtownych wyprzedaży. Błędne zlecenie na akcje Procter & Gamble zostało zinterpretowane jako paniczna wyprzedaż waloru. Systemy monitorujące transakcje uznały ją za wstęp do większej przeceny, obejmującej także inne akcje. Z każdym kolejnym odczytywanym zleceniem innych systemów (które reagowały wedle podobnego algorytmu) utwierdzały się w przekonaniu, że rynek spada. Nastąpiła klasyczna reakcja łańcuchowa i po chwili spadki z NASDAQ przeniosły się na "starszego brata", giełdę NYSE, serce amerykańskiej gospodarki.

Po paru minutach wszystko wróciło do normy, ale amerykański regulator SEC oraz władze obu giełd wszczęły dochodzenie.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200