Na kłopoty agenty

W ABM chodzi o takie opisanie analizowanych problemów, by wirtualne mrówki, a właściwie to współpracujące ze sobą agenty, funkcjonując w pewnej przestrzeni matematycznej, wyszukiwały, odkrywały i zmieniały ścieżki, tj. rozwiązania, dążąc do lokalnej optymalizacji.

Taka symulacja, bazująca na zachowaniu mrówek, jest znacznie bardziej efektywna niż inne heurystyczne metody eksploracji danych (np. algorytmy genetyczne) i to zarówno pod względem czasu potrzebnego do osiągnięcia satysfakcjonującego rozwiązania, jak i jego jakości. Co więcej, w takim podejściu zmiana warunków zewnętrznych nie wymaga wykonywania ponownych obliczeń, lecz jedynie adaptacji do zmian, na wzór znajdowania nowej drogi przez mrówki, gdy na starej ścieżce pojawi się przeszkoda. "Algorytm mrówek" jest wartościowym rozwiązaniem w dynamicznie zmieniającym się środowisku biznesowym.

Chodzi tu o optymalizację o wielu celach (w odróżnieniu od optymalizacji liniowej, gdzie uwzględnia się tylko jeden cel) - obliczenia są więc prowadzone w przestrzeni wielowymiarowej. Dlatego ich wyniki powinny być prezentowane w postaci wizualizacji.

Rezultaty mogą być zdumiewające: takie symulacje mogą pomóc w opracowaniu strategii postępowania, które przy wykorzystaniu tradycyjnych metod nie zostałyby nawet wzięte pod uwagę (warto wskazać pewną analogię z data mining, w którym można wychwycić zależności pomiędzy danymi nieobserwowalnymi w typowej analizie danych). Trudność jednak polega na stworzeniu standardowych narzędzi, aby menedżer przy ich pomocy mógł łatwo i szybko przetestować efekty jakie przyniesie dana strategia postępowania. Nie ma tutaj uniwersalnych symulacji - każdy przypadek wymaga odpowiedniego oprogramowania reguł, jakimi posługują się agenty. Do tego potrzebna jest praca konsultantów, ze względu na niedojrzałość dziedziny mająca więcej wspólnego ze sztuką niż nauką, i na którą stać jedynie duże i zasobne organizacje.

Nowy przemysł

W parku naukowo-technologicznym (InfoMesa) i uczelniach znajdujących się koło Santa Fe w Nowym Meksyku, jednym z południowych stanów USA, od kilkunastu lat działała grupa specjalistów, którzy sami nazwali się teoretykami złożoności. Budowali złożone modele komputerowe, które miały symulować dynamikę tak złożonych systemów, jak miasta, deszcze równikowe czy rynki giełdowe. Pod koniec lat 90. liderzy tej grupy zaczęli przekształcać dotychczasowe wyniki prac naukowych w komercyjne przedsięwzięcia. Powstawały pierwsze firmy, których głównym celem było oferowanie rozwiązań będących praktyczną implementacją badań nad teorią złożoności i zjawiskiem chaosu.

Największy rozgłos zyskała firma BiosGroup, założona przez Stuarta Kauffmana, biologa molekularnego (który zaczynał od budowania złożonych modeli mających wykazać, że możliwe było powstanie życia na Ziemi w zupełnie naturalny sposób). Udziałowcem i głównym inwestorem BiosGroup była firma konsultingowa, po fuzjach znana obecnie jako Cap Gemini Ernst & Young.

Jednym z najbardziej spektakularnych projektów zrealizowanych przez BiosGroup była optymalizacja łańcucha dystrybucji ponad 250 produktów koncernu Procter & Gamble w Stanach Zjednoczonych. Ten łańcuch to dość luźna struktura, w której znajdują się hurtownie i dystrybutorzy, firmy spedycyjne i sklepy detaliczne. Każde z ogniw tego łańcucha ma własne, często sprzeczne z innymi uczestnikami cele (np. hurtownik woli utrzymywać stosunkowo małe zapasy o stałej wielkości, podczas gdy producent - wprowadzać produkty jednorazowo w jak największych partiach). Przez długi czas "przejście" pojedynczego produktu przez ten łańcuch trwało 130-140 dni. Zastosowanie klasycznych mechanizmów optymalizacyjnych, eliminowanie zbędnej biurokracji i wychwycenie pojawiających się strat doprowadziły do skrócenia tego czasu do 65 dni. Zadaniem specjalistów BiosGroup była dalsza ponaddwukrotna redukcja. Udało się osiągnąć nie tylko wynik 30 dni, lecz również zmniejszyć przeciętny koszt dostarczenia towaru do sklepu o 20%. Co sprawiło, że specjaliści byli w stanie osiągnąć rezultaty nieosiągalne dla najlepszych specjalistów od zarządzania i klasycznej analizy danych?

Rzecz w tym, że wykorzystanie modelowania opartego na agentach przypomina intuicyjne szukanie rozwiązania, a więc myślenie podświadome, które - zdaniem niektórych specjalistów badających mózg - ma wiele wspólnego z masowym przetwarzaniem równoległym. Mniej ma natomiast wspólnego z klasycznym logicznym rozumowaniem. Tu właśnie ujawnia się siła modelowania opartego na agentach. W opisywanym przypadku przeprowadzono symulację, w której agenty oprogramowano zgodnie z regułami zachowania poszczególnych uczestników łańcucha dystrybucji. Stwierdzono, że poprawy efektywności należy szukać w zmniejszeniu pewnych marginesów bezpieczeństwa, które zakłada sobie każdy uczestnik łańcucha dystrybucji (związanych z zabezpieczeniem się na okoliczność wystąpienia różnego rodzaju błędów, np. opóźnień).

Stworzony model sieci dystrybucji pozwolił na znalezienie pewnych synergii ukrytych w tym złożonym systemie - konkretnie wskazanie możliwości redukowania owych marginesów bezpieczeństwa, tak aby nie zaburzyć funkcjonowania całego łańcucha. Nie dałoby się tego stwierdzić poprzez analizę danych dotyczących poszczególnych elementów. Całość, jako system złożony, nie poddawała się prostemu ujęciu w postaci wzorów czy formuł, które można by wyliczyć, podstawiając dane wejściowe.

Potrzebna była symulacja.

Zarząd Procter & Gamble był pod tak dużym wrażeniem z osiągniętych rezultatów, że zdecydował się na dokonanie kilkumilionowej inwestycji w BiosGroup. "Wykazaliśmy, że jesteśmy w stanie zastosować narzędzia symulacji do rozwiązywania bardzo praktycznych problemów biznesowych. Tak naprawdę to stworzyliśmy nową dziedzinę" - twierdzi Kauffman.


TOP 200