Sztuczna inteligencja sprawdza się w bankowości

Temat dyskusji „Czy AI powinna zastąpić człowieka w potwierdzaniu tożsamości?” podczas Asseco Banking Forum 2019 sprowokował jej uczestników do poszukania odpowiedzi na większe pytania o rolę i przyszłość sztucznej inteligencji w sektorze bankowym i w biznesie.

Tomasz Bitner, Tomasz Chmielewski, Tomasz Leś, Krzysztof Połcyn, Robert Tórz, Asseco Banking Forum 2019, foto: Katarzyna Rolak

Podczas Asseco Banking Forum, redaktor naczelny magazynu Computerworld, Tomasz Bitner, poprowadził panel dyskusyjny, który w znacznej ale nie zasadniczej mierze poświęcony był wykorzystaniu AI do weryfikacji tożsamości klientów. Stało się tak, ponieważ uczestnicy panelu: Tomasz Chmielewski, Główny Ekspert Digital Ecosystem, ING Bank Śląski, Tomasz Leś, Senior Product Portfolio Manager, Asseco Poland, Krzysztof Polcyn, Dyrektor ds. Innowacji, Grupa EFL oraz Robert Tórz, Dyrektor Departamentu Klienta Indywidualnego i Bankowości Mobilnej, SGB-Bank S.A., chętnie odwoływali się do całego spektrum zastosowania AI w bankowości – podając nieoczywiste przykłady możliwości i ograniczeń technologii. Kwestia tożsamości skupia jak w soczewce większość tych wyzwań.

Wszyscy uczestnicy dyskusji zgodzili się co do tego, że

względy prawne i biznesowe nie wyeliminują człowieka z procesu weryfikacji tożsamości. Decyzja, wspierana coraz lepiej przez AI, spoczywać będzie jednak w jego rękach. Jaki zatem charakter będzie miało to wsparcie?

Takie pytanie prowokuje do szerszej dyskusji o tym, które obszary i procesy prędzej będą skolonizowane przez AI: „frontowe” procesy obsługi czy głębokie, wewnętrzne procesy biznesowe. Tomasz Chmielewski z ING zwrócił uwagę, że zastosowanie algorytmów uczących się w procesach back-endowych poprzedziło dzisiejszą modę na AI.

„Pewne kategorie narzędzi można dziś podciągnąć pod AI, ale już od lat przy ich pomocy badamy dostępne dane aby optymalizować reguły i procedury stosowane w kontakcie z klientem”
– mówił Tomasz Chmielewski. Z tego punktu widzenia – dzisiejsze zastosowanie AI do weryfikacji tożsamości jest kontynuacją takiej pracy. To algorytmy podpowiedziały, które elementy interakcji i komunikacji klienta z bankiem posiadają cechy wyróżniające i pozwalające na identyfikację, jak sposób pisania na klawiaturze czy korzystania ze smartfona. „Te dodatkowe reguły są bardzo skuteczne i efektywne, jeśli chodzi o odcinanie kolejnej partii najprostszych fraudów opartych np. na wykradzeniu hasła” – mówi Tomasz Chmielewski.

Zobacz również:

Tomasz Leś z Asseco spodziewa się dalszego marszu AI przez kolejne obszary bankowości: technologia ta pomaga wygrywać dziś bitwę o likwidację fraudów – ale pojawiają się kolejne pola, np. ofertowanie na podstawie modeli i ustaleń wypracowanych przez AI.

„Do pewnego momentu podpowiedzi AI są po prostu trafniejsze, ale nie wykraczają poza schemat jakim operują ludzie. Prawdziwa zmiana nadchodzi wtedy, kiedy AI zaczyna wytwarzać sugestie, rekomendacje działania i wykrywać korelacje, które są dla człowieka skrajnie trudne do wymyślenia.
Np. że klient, który późno chodzi spać i zwykle spóźniony loguje się w pracy, a pieniądze wydaje w weekendy - z dużym prawdopodobieństwem za 3 miesiące kupi czerwone porsche. Trudno przyłożyć takie prognozowanie do prognoz, którymi człowiek operował dotychczas” – mówi Tomasz Leś. Są już mechanizmy, które na takie wnioskowanie pozwalają – pytaniem otwartym pozostaje kwestia, czy banki są gotowe aby te nieoczywiste sugestie zaprząc do pracy w codziennych operacjach.

Robert Tórz z SGB stwierdził, że sektor bankowy jest na rozwiązania AI gotowy – i kwestią decyzji jest szybka adaptacja istniejących rozwiązań. To, co jednak może tę decyzję odwlekać, jest zagadnienie odpowiedzialności. W świetle regulacji z ostatniego czasu de facto i tak spoczywa ona na banku. „Faktem jest, że utrzymuje się wysoki poziom zaufania do banków. AI służy uszczelnianiu tego systemu. Zabezpieczając jego działanie, na pewno wzmacnia ów poziom zaufania” – mówił Robert Tchórz.

Tę pewność jeszcze mocniej akcentował Tomasz Chmielewski, który odwrócił pytanie: czy bankowość może jeszcze działać bez AI? Choćby w tytułowym obszarze tożsamości i bezpieczeństwa klientów. „Istnieją przykłady scenariuszów fraudów, których uniknięcie wymaga wręcz jej istnienia. Nawet w sytuacji gdy większość przesłanek potwierdzania tożsamości skłania do zaakceptowania transakcji, AI jest w stanie wygenerować alert na przykład w oparciu o wspomniane przesłanki behawioralne. Ale żeby mieć szansę na zapobieżenie takim dobrze przygotowanym atakom – trzeba mieć zaimplementowaną AI. Trzeba też jej używać, dać sobie szansę badania sygnałów na podstawie których AI będzie miała szansę się uczyć. Coraz częstsze badanie – coraz większej ilości sygnałów przekracza siły człowieka” – mówił Tomasz Chmielewski.

Wątek odpowiedzialności za działanie AI jako czynnika, który ma wpływ na szerszą adaptację technologii przez banki podjął Krzysztof Połcyn z Grupy EFL. „To jeden z ważniejszych i ciekawszych problemów. Odwołajmy się do RODO: w rozporządzeniu wprost nie mówi się nic o AI. Ale jeśli popatrzmy choćby na dane biometryczne, to widać, że nie możemy ich przetwarzać bez zgody klienta. Profilować – także można tylko w oparciu o uzyskane świadomie zgody. Dlatego

firmy tworzące AI i firmy je wdrażające powinny posiadać bardzo kompetentne osoby w zakresie RODO w kontekście AI”
– podkreśla Krzysztof Połcyn. Jednocześnie, jak podkreśla, sytuacja dzięki RODO jest w zasadniczej mierze opanowana. Prosty dowód przynosi wizyta poza UE i doświadczenie kontaktu z rozwiązaniami AI tam, gdzie RODO nie obowiązuje. „Każde podanie adresu poczty elektronicznej przynosi zalew ofert handlowych, zwykle niezbyt trafnych, co o jakości zastosowanych tam algorytmów AI świadczy źle. Dane trzeba chronić, inaczej będzie chaos” – mówił Krzysztof Połcyn.

Paneliści zgadzali się, co do tego, że dopóki AI nie będzie decydowała, jak używa danych – wypełnienie regulacji RODO będzie możliwe.

„Dopóki nie będziemy AI karmić wrażliwymi danymi – dopóty nie będzie kłopotów. Gdyby było inaczej, faktycznie byłoby to zagrożenie”
– zauważył Tomasz Chmielewski.

Tomasz Leś zwrócił jednak uwagę, że to gwarantowane przez RODO bezpieczeństwo nie jest dane raz na zawsze – wymaga stałej pracy i monitorowania sytuacji. Z natury AI wynika, że oprócz wykorzystania danych rzeczywistych, tworzy własne metadane i odkrywa zależności między nimi. „Najbliższy z brzegu przykład Facebooka dowodzi, że za pomocą kilku kliknięć użytkownik niechcący zdradza się choćby ze swoimi poglądami politycznymi.

Formalnie właściciel pozostaje czysty: nie przekazał algorytmowi tych danych, ale on sam je sobie wygenerował i de facto wszedł w ich posiadanie”
– powiedział Tomasz Leś. I wtedy właśnie kwestią kluczową jest to, ile oddamy decyzji maszynie a ile pozostanie u człowieka, który czujnie zadecyduje czy zgodnie z prawem może wykorzystać podpowiedzi bazujące na przesłankach wykorzystujących dane wrażliwe.

Wraca problem odpowiedzialności za wyniki pracy AI. Mechanizmy te – przynajmniej obecnie – najczęściej są dostępne jako usługi świadczone z chmury przez dostawców IT. Może więc banki będą starały się przenieść przynajmniej część tej odpowiedzialności na dostawców?

„Problem istnieje. AI może być mądra na tyle aby się uczyć – ale jeśli klient zbankrutuje i zdecyduje się wejść w spór prawny: kto będzie odpowiadał? Na pewno odpowiedzialność w relacji z klientem pozostanie po stronie banku” – mówił Krzysztof Połcyn.

„Nikogo nie będziemy odsyłali np. do Apple’a. Jest to zgodne ze starą zasadą prawa rzymskiego: za czyny niewolnika odpowiada pan. W tym wypadku AI jest niewolnikiem banku”
– dodał Tomasz Chmielewski, zaznaczając jednak przy tym, że w przyszłości prawo będzie musiało uwzględnić sytuacją, w której banki albo inne podmioty będą korzystały z tożsamości dostarczonej przez innego dostawcę. Na pewno będzie on musiał przejąć część odpowiedzialności. „Trwają prace aby nadać rozwiązaniom AI ograniczoną osobowość prawną. Po to aby chociaż częściowo się ubezpieczyć. Być może to chociaż częściowo rozwiązałoby sprawę. Natomiast czy odpowiada w ostateczności dostawca chmury – to w zasadzie jedyna droga przetwarzania takiej ilości danych – czy bank – to jeszcze kwestia niepewna. I zarazem powód dla którego z ostrożnością banki będą podchodziły do adaptacji AI. Prawo musi być jednoznaczne” – zaznaczył Krzysztof Połcyn.

Potwierdzanie tożsamości, do którego zastosowane jest AI, jest dla banków nie tylko kosztem ale staje się źródłem przychodów. „Już dziś zarabiamy na tej usłudze – jesteśmy w węźle komercyjnym KIR. Każda firma może poprosić nas o potwierdzenie tożsamości klienta” – powiedział Tomasz Chmielewski.

Wdrożenie AI przynosi zyski także poprzez redukcję kosztów.

„Doskonałym przykładem jest właśnie usługa zaufanego dostawcy tożsamości: uproszczenie weryfikacji tożsamości wprost przekłada się na poziom Customer Experience”
– powiedział Robert Tórz. Wtórował mu Tomasz Leś: „Firmy, także banki zawsze obawiają się, że źle obsłużą klienta. Narzędzie jest wtórne. Dobrze działające mechanizmy AI nie obniżą jakości, jest wiele obszarów, gdzie doskonale się sprawdzają. Przykładem jest windykacja - gdzie klientowi łatwiej o trudnych sprawach „porozmawiać” z automatem, niż prawdziwym człowiekiem”. Jakością procesu dostarczania umowy można wygrać z konkurencją. „Zakładam, że pierwszym sektor który z tego skorzysta, może być sektor energetyczny, gdzie ceną za podstawowy produkt w zasadzie nie da się konkurować. Ale
uproszczenie obsługi i ułatwienie klientowi zweryfikowania tożsamości da realną przewagę właśnie w walucie CX”
– dodaje Krzysztof Połcyn.

Od dyskusji o weryfikacji tożsamości przez rozwiązania AI – paneliści powrócili więc do głównego wyzwania przed którym stoją firmy i pierwotnego powodu, dla którego sięgnęły po AI.

„CX to dziś najważniejsze, o co powinniśmy dbać. Systemy za miliony dolarów będą utopione jeśli nie uwzględnią jakości doświadczenia klienta z relacji z bankiem czy firmą”
– podsumował Tomasz Chmielewski.


TOP 200