Sztuczna inteligencja wkracza na rynek masowy

Liczba nowych produktów, narzędzi i usług wykorzystujących mechanizmy AI rośnie ostatnio lawinowo podobnie jak inwestycje w rozwój technologii sztucznej inteligencji.

Technologie sztucznej inteligencji AI (Artificial Intelligence) są rozwijane od dekad, ale w ostatnich latach nastąpił znaczący wzrost inwestycji w badania i opracowywanie znajdujących praktyczne zastosowania rozwiązań, bo wiele z największych firm IT zauważyło szansę na wyróżnienie się wśród konkurencji przez zaoferowanie nie dostępnych dotąd powszechnie, innowacyjnych systemów. Jednocześnie pojawia się coraz więcej nowych firm, które mają pomysły na wykorzystanie mechanizmów sztucznej inteligencji i wierzą, że może to być perspektywiczny biznes.

Efekty tego zaczynają być coraz bardziej widoczne. Technologie AI wychodzą laboratoriów na rynek masowy i stają się coraz częściej dostępne jako praktyczne w świecie rzeczywistym rozwiązania.

Zobacz również:

  • Sztuczna inteligencja od Apple wymagać może nowych procesorów
  • Trwa zacięta walka o prymat na rynku układów AI
  • IBM podpisało z armią amerykańską intratny kontrakt

Na razie nie wszyscy zdają sobie sprawę, że mechanizmy sztucznej inteligencji mogą dać korzyści biznesowe, ale za parę lat staną się one powszechnie wykorzystywanym standardem.

Nie dotyczy to tylko bezpośredniego zwiększenia efektywności biznesu i zmniejszenia kosztów, ale również takich dziedzin, jak bezpieczeństwo – zastosowanie mechanizmów AI daje nadzieję na zahamowanie rosnącej fali zagrożeń.

Sztuczna inteligencja to pojęcie ogólne w ramach którego występuje wiele różnych, specjalizowanych technologii opartych na oprogramowaniu i systemach sprzętowych umożliwiających jego działanie. Dlatego też występuje wiele nazw i określeń, które są powiązane z AI, jak na przykład deep-learning i machine learning (uczenie maszynowe), sieci neuronowe, cognitive computing lub cognitive services (przetwarzanie/usługi kognitywne – poznawcze).

Mechanizmy AI są wykorzystywane do różnych zadań, jak rozpoznawanie głosu, obrazów, wideo, automatyczne tłumaczenia, wykrywanie anomalii w działaniu ludzi lub urządzeń

Przykładem mogą być systemy analizy głosu wykorzystywane przez wirtualnych asystentów takich jak Apple Siri, Microsoft Cortana, Amazon.com Alexa lub Samsung Electronics Bixby. Mogą one znaleźć poważne zastosowania biznesowe, np. do budowy zautomatyzowanych centrów obsługi klienta wykorzystujących technologie rozpoznawania i generacji głosu oferowane jako oprogramowanie lub usługa chmurowa.

„Przez najbliższe 2-3 lata systemy uczenia maszynowego będą najbardziej przydatne w filtrowaniu informacji i prezentacji priorytetowych danych, które będą podstawą dla decyzji podejmowanych przez ludzi. Nie sądzę by zastosowanie systemów sztucznej inteligencji podejmujących autonomiczne decyzje stało się w najbliższym czasie finansowo efektywnym modelem biznesowym” uważa Tim Estes, założyciel i CEO firmy Digital Reasoning, która oferuje aplikację Synthesys wykorzystującą techniki uczenia maszynowego do analizy informacji biznesowych. Aplikacja może być wykorzystana do identyfikowania podejrzanych transakcji lub rejestrowania ryzykownych zachowań pracowników w komunikacji z innymi osobami.

Sztuczna inteligencja i sieci neurtonowe

Pierwsze prace związane z rozwojem sztucznej inteligencji koncentrowały się ma próbach bezpośredniego odwzorowania modelu na którym opiera się ludzka wiedza w formie, którą umożliwiałaby komputerom przetwarzanie dostarczanych informacji i wyciąganie z nich odpowiednich wniosków. Doprowadziło to do komercjalizacji pierwszych, wykorzystujących dane w formie tekstowej, tzw. „systemów eksperckich”. Nie zdobywały one wiedzy na podstawie doświadczeń tak, jak robią to ludzie. Informacje były im dostarczane w pracochłonnym procesie przekazywania danych, które zbierali ludzie, a po przefiltrowaniu, wynikająca z nich wiedza była przekształcana w odpowiednie zestawy reguł wykorzystywane przez system.

Największe postępy w rozwoju technologii AI w ostatnich latach są związane z mechanizmami uczenia maszynowego umożliwiającymi przekształcanie napływających lub dostarczanych do systemu informacji w wiedzę, która może zostać wykorzystana do podejmowania odpowiednich decyzji.

AI wymaga dostarczenia ogromnej liczby danych

„Siłą ludzkiej inteligencji jest to, że potrafimy nauczyć się podejmować właściwe decyzje na podstawie niewielkiej liczby danych. Jeśli twój szef lub inna ważna osoba powtórzy jakąś opinię zaledwie raz lub kilka razy, to większość pracowników szybko zorientuje się, jak należy działać. W przypadku mechanizmów uczenia maszynowego deep learning mówi się, że życie zaczyna gdy są miliardy przykładów” powiedział Ray Kurzweil, dyrektor w Google podczas konferencji na targach CEBIT 2017.

Właśnie tego typu technologia doprowadziła w 2016 roku do zwycięstwa systemu AlphaGo w organizowanym od 18 lat konkursie gry Go. Sztuczna inteligencja pokonała Lee Sedola, mistrza w tej grze w stosunku 4:1. Program AlphaGo został opracowany przez DeepMind, oddział Google zajmujący się rozwojem mechanizmów sztucznej inteligencji i wykorzystuje mechanizmy uczenia maszynowego.

Początki systemów uczenia maszynowego są związane z pojawieniem się sieci neuronowych – modelu obliczeniowego, który jest wzorowany na funkcjonowaniu systemu ludzkich komórek nerwowych – neuronów przekazujących informacje wewnątrz ciała. Ludzki mózg zawiera około 100 mld takich komórek, a każda z nich ma połączenie z 1000 innych.

W modelu sztucznej sieci neuronowej wykorzystuje się zestaw komórek z których każda wyposażona jest w interfejs wejściowy przez który dostarczane są dane oraz wyjściowy, który służy do przekazania informacji uzyskanych po wykonaniu zestawu względnie prostych obliczeń. Sztuczne neurony są zorganizowane w zestaw warstw, z których każda pobiera dane z warstwy poprzedniej i po przetworzeniu przekazuje do następnej.

Gdy sieć neuronowa poprawnie rozwiąże jakieś zadanie, komórkom, które najlepiej określiły prawidłową odpowiedź przypisywane są wyższe i w ten sposób system się uczy.

Sieci określane jako deep neural networks są wyposażane w dużą liczbę warstw i dzięki temu mogą być bardziej dokładne w wykonywaniu zleconych im zadań. Ale jednocześnie wymagają znacznie większej mocy obliczeniowej, co początkowo było dużą, kosztowną barierą ich zastosowań. Pomysł na wykorzystanie technologii przetwarzania równoległego stosowanej w procesorach graficznych GPU uratował sieci neuronowe od pozostania laboratoryjną ciekawostką.

Jak oprogramowanie wygrało z człowiekiem w grze Go

Technologie uczenia maszynowego wykorzystujące sieci neuronowe muszą zarejestrować nawet miliard przypadków, aby nauczyć się jak konkretne zadanie wykonać lepiej niż zrobiłby to człowiek. A niezależnie od dostępnej mocy przetwarzania, dostarczenie miliarda różnych przykładów realizacji jakiegoś zadania jest problemem samym w sobie.

Twórcy oprogramowania AlphaGo przeszukali zasoby internetu i znaleźli tysiące zapisów przebiegu gry Go, które stały się podstawą do wstępnego treningu 13-warstwowej sieci neuronowej. Następnie uruchomili dwie wersje systemu, które grały przeciwko sobie dostarczając nowych danych dotyczących potencjalnego przebiegu rozgrywki.

Oprogramowanie AlphaGo korzystało z dwóch typów uczenia maszynowego.

Zapis rozgrywek prowadzonych przez ludzi był analizowany przy wykorzystaniu techniki nauki nadzorowanej (supervised learning) – systemowi były dostarczane dane wejściowe dotyczące kolejnych posunięć w zarejestrowanych wcześniej rozgrywkach i sieć neuronowa uczyła się, jakie ruchy prowadzą do zwycięstwa.

W drugim etapie AlphaGo zaczął grać sam z sobą (z drugim takim samym systemem). Zastosowano wówczas inną technikę określaną jako uczenie wzmocnione (reinforcement learning). Cel pozostał ten sam – zwycięstwo w rozgrywce, ale do sieci neuronowej nie wprowadzano danych wejściowych. System AlphaGo musiał sam je generować i oceniać skuteczność posunięć przy wykorzystaniu dodatkowej, niezależnej sieci neuronowej z komórkami mającymi na początku przypisane te same wagi, które były stopniowo modyfikowane w miarę, gdy sieć wykrywała nowe strategie umożliwiające osiągnięcie sukcesu.

Trzecia możliwa do zastosowania technika uczenia maszynowego tzw. uczenie niekontrolowane (unsupervised learning) jest przydatna w zastosowaniach biznesowych, ale znacznie mniej w grach takich jak Go i twórcy AlphaGo jej nie wykorzystywali.

W tym trzecim trybie, do sieci neuronowej nie jest dostarczana informacja jaki cel należy osiągnąć i jest ona pozostawiona sama sobie w procesie analizy, kategoryzacji i grupowania danych, a także określania zależności między nimi. Tego typu uczenie maszynowe jest w praktyce rodzajem narzędzia analitycznego, które prezentuje różne możliwości powodujące, że gra będzie się dalej toczyć lub też zostanie zakończona. Ocena jakie powinny być kolejne działania (ruchy) jest jednak pozostawiona człowiekowi, który nadzoruje funkcjonowanie systemu.

Konkurencja na rynku praktycznych rozwiązań AI

Technologie sztucznej inteligencji to nowy ważny obszar, w którym rozpoczęła się intensywna konkurencja między największymi producentami oprogramowania i firmami oferującymi usługi chmurowe. IBM, Microsoft, Google, Amazon, Samsung, Intel, to tylko niektóre przykłady firm, które inwestują znaczące środki finansowe w rozwój systemów AI i wprowadzają na rynek coraz więcej narzędzi, aplikacji i usług wykorzystujących mechanizmy sztucznej inteligencji.

Na rynku jest wiele firm oferujących oprogramowanie AI w formie modułów, które mogą zostać zintegrowane w firmowych systemach IT z różnego rodzaju aplikacjami lub usługami. Mniejsi dostawcy z reguły mają w ofercie narzędzia przeznaczone do wykonywania wąsko specjalizowanych zadań lub zastosowań w jakieś branży. Większe firmy wprowadzają rozwiązania lub usługi o charakterze ogólnym, które nie są bezpośrednio związane ze specyficznymi zastosowaniami.

Inteligentne zarządzanie sieciami Wi-Fi

Pomysłów na praktyczne zastosowania sztucznej inteligencji jest coraz więcej. Jednym z przykładów jest koncepcja oprogramowania do inteligentnego zarządzania działaniem sieci Wi-Fi. Bo według badań Mojo Networks, promującej koncepcję “Cognitive Wi-Fi”, jeden na dziesięciu pracowników dużych firm ma problemy z funkcjonowaniem połączeń Wi-Fi przynajmniej raz na tydzień, a administratorzy sieci poświęcają nawet 50% czasu pracy na analizowanie i usuwanie problemów zgłaszanych przez użytkowników.

Do najbardziej znanych dostawców systemów AI należy IBM. Wynika to głównie z prowadzonej przez firmę od lat silnej promocji i marketingu oferty usług opartych na systemie Watson szeroko wykorzystującym mechanizmy sztucznej inteligencji. Przez IBM są one określane mianem "cognitive computing" czyli inteligentne przetwarzanie danych lub przetwarzanie kognitywne.

Zestaw usług, które oferuje Watson to m.in. narzędzia do tworzenia chatbotów (robotów prowadzących konwersację słowną lub tekstową z użytkownikami w podobny sposób jak człowiek), wykrywania charakterystycznych wzorców i struktur w danych tekstowych lub budowanie wiedzy na podstawie analizy informacji niestrukturalnych.

Niektóre usługi Watson zostały „wytrenowane” przez IBM do wykonywania specjalistycznych zadań dopasowanych do potrzeb firm i instytucji z różnych branż takich jak służba zdrowia, edukacja, usługi finansowe, handel, marketing itd.

Watson i bedące jego podstawą mechanizmy sztucznej inteligencji znajdują również zastosowanie jako narzędzie do zwiększania bezpieczeństwa systemów IT. Dostępna jest usługa Watson for Cybersecurity dostarczająca informacji o potencjalnych zagrożeniach. Wykorzystuje ona analizę ogromnych zasobów danych, również nie mających struktury, które są dostępne w globalnej sieci, do tworzenia wzorców szkodliwej aktywności, a w przypadku wykrycia podejrzanych zachowań kodu lub ludzi, dostarczanie odpowiednich informacji osobom lub systemom odpowiedzialnym za bezpieczeństwo IT.

Sama usługa Watson for Cybersecurity nie wykonuje aktywnych działań takich jak blokowanie portów lub urządzeń, eliminacja szkodliwych kodów itp. Dostarcza jedynie informacji o zagrożeniu, które mogą zostać wykorzystane lub nie przez analityków i inne systemy zabezpieczeń.

Dlatego warto zauważyć, że ostatnio IBM Security ogłosiło nawiązanie współpracy z Cisco, która może doprowadzić do zahamowania wzrastającego w skali globalnej poziomu cyberprzestępczości. W ramach tego porozumienia, Cisco i IBM Security będą ściśle współpracować w zakresie rozwijania nowych produktów, usług i mechanizmów inteligentnego wykrywania zagrożeń, a także zintegrują swoje produkty bezpieczeństwa i umożliwią wymianę informacji między nimi. Współpraca będzie również dotyczyć IBM X-Force oraz Cisco Talos – zespołów badawczych obu tych firm, które rozpoczną wspólne badania nad mechanizmami inteligentnego wykrywania i przeciwdziałania atakom na systemy IT.

IBM wraz z firmami partnerskimi oferuje usługi integracji narzędzi AI z aplikacjami lub procesami biznesowymi wykorzystywanymi w przedsiębiorstwach. Deweloperzy pracujący w innych firmach mogą też samodzielnie je integrować, bo większość narzędzi jest dostępna w formie bibliotek programistycznych API na portalu IBM Bluemix.

Technologie sztucznej inteligencji rozwija również Microsoft. Pod marką Microsoft Cognitive Services firma oferuje programistom dostęp do bibliotek API umożliwiających integrację mechanizmów uczenia maszynowego z tworzonymi aplikacjami.

W ofercie są narzędzia do przetwarzania mowy na tekst z analizą intencji i kontekstu, tłumaczenia mowy lub tekstu na różne języki, analizy związków między tekstami naukowymi, osobami i czasopismami naukowymi w których zostały opublikowane, a także narzędzia do budowy chatbotów i ich integracji z innymi usługami takimi jak Slack, Twitter lub poczta Office 365.

Na ostatniej konferencji Microsoft Build w maju 2017 roku, Microsoft zaprezentował nowe usługi (wcześniej dostępne tylko w wersji preview) takie jak m.in. biblioteki API zawierające mechanizmy rozpoznawania twarzy, Content Moderator – oprogramowanie do automatycznej analizy i zatwierdzania lub blokowania treści tekstowych, obrazów lub wideo, a także Custom Image Recognition Service – oprogramowanie, które umożliwia rozpoznawanie obiektów i po odpowiednim treningu może służyć na przykład w fabrykach do identyfikacji elementów wykorzystywanych na linii produkcyjnej.

Google, udostępnił, niektóre wykorzystywane wcześniej tylko wewnętrznie, technologie uczenia maszynowego w ramach platformy Google Cloud Platform.

Są one oferowane w formie wcześniej wytrenowanych narzędzi przeznaczonych do wykonywania specjalizowanych zadań lub jako oprogramowanie, które można dopasować do indywidualnych wymagań trenując je na podstawie własnych zasobów danych. Google oferuje m.in. oprogramowanie do analizy obrazów, tekstów, wideo, języka naturalnego, rozpoznawania mowy i automatycznego tłumaczenia, a także wąsko specjalizowane narzędzie dla osób szukających pracy, które próbuje skorelować ich umiejętności z informacjami o wolnych stanowiskach przy uwzględnieniu lokalizacji, stażu pracy i wykształcenia.

AWS (Amazon Web Services) umożliwia firmom tworzenie nowych funkcji lub kontrolowanych głosem aplikacji dla cyfrowego asystenta Alexa wbudowanego do urządzeń Amazon Echo, a oprócz tego oferuje wiele z technologii AI wykorzystywanych przez Alexa w formie usług. Najnowszym tego przykładem jest Amazon Connect, system Call Center oferowany jako usługa zintegrowana z funkcjami rozpoznawania mowy i innymi technologiami AI opracowanymi przez Amazon.

Warto zauważyć, że oprócz usług, które są już dostępne na swoją premierę oczekuje wiele innych interesujących rozwiązań.

Microsoft zaprasza firmy do testowania wersji przeglądowych kilku nowych usług. Są to m.in. Emotion API – narzędzie do analizy obrazów, które identyfikuje emocje jakie towarzyszą osobom na zdjęciach klasyfikując je jako złość, lekceważenie, obrzydzenie, obawa, szczęście, smutek lub zdziwienie. Jak działa to narzędzie można samodzielnie spróbować przesyłając fotografię na stronę Microsoft Emotion API.

Firma przygotowuje również rozszerzoną wersję usług rozpoznawania i generacji mowy Custom Speech Service, która ma pozwolić na dopasowanie ich działania do charakterystycznych cech wymowy w różnych regionach lub środowiskach użytkowników.

Nowym narzędziem jest też QnA Maker. Oprogramowanie analizuje dostarczone teksty i przygotowuje odpowiedzi na zadawane pytania, które mogą zostać wykorzystane przez chatbot. Na razie można mieć zastrzeżenia do efektywności tego narzędzia, ale wynika to raczej z jego niedostatecznego wytrenowania i zbyt małej liczby dostarczonych mu tekstów źródłowych.

Natomiast na konferencji Google Cloud Next 2017 w San Francisco Google zaprezentował wersję beta Cloud Video Intelligence API, narzędzia umożliwiającego efektywne wyszukiwanie plików wideo przy wykorzystaniu słów lub nazw opisujących ich zawartość.

Google chce zwiększyć popyt na swoje usługi organizując we współpracy z funduszami kapitałowymi Data Collective i Emergence Capital zawody dla małych firm mających nowe pomysły na biznes związany z technologiami uczenia maszynowego. Firma utworzyła też w Mountain View (Kalifornia) Machine Learning Advanced Solution Lab, ośrodek w którym użytkownicy przy wsparciu specjalistów z Google mogą testować możliwości zastosowania technologii uczenia maszynowego do rozwiązania ich specyficznych problemów.

Powstają kolejne ośrodki badań nad sztuczną inteligencją

Facebook otworzył dział badań nad sztuczną inteligencją FAIR (Facebook AI Research). Dotąd był to dział wewnętrzny opracowujący rozwiązania wyłącznie na własne potrzeby firmy. Ale wydaje się to zmieniać, bo ostatnio firma zaczęła testować system dla administratorów stron na Facebooku, który udziela porad dotyczących, jak można zoptymalizować i lepiej zarządzać serwisem. Informacje są udzielane przez chatbot funkcjonujący w Messengerze. Na razie nie wiadomo czy i kiedy opracowane technologie będą dostępne jako usługa.

Intel utworzył ostatnio, w marcu 2017 roku, nowy oddział Artificial Intelligence Products Group, którym kieruje Naveen Rao, poprzednio pełniący funkcję CEO firmy Nervana Systems zajmującej się rozwijaniem technologii uczenia maszynowego, którą Intel przejął w 2016 roku.

Nowa grupa w strukturach Intela przejmie kontrolę nad rozwojem wszystkich technologii sprzętowych i programowych związanych ze sztuczną inteligencją. A jak mówią przedstawiciele firmy, Intel chce należeć do grupy liderów w tej dziedzinie.

Narzędzia AI jako open source

Niektóre z dużych firm publikują szczegółowe informacje o opracowanych rozwiązaniach, a nawet udostępniają kod własnego oprogramowania jako open source (np. Google).

Najczęściej jest to działanie promocyjno-marketingowe, które ma zwiększyć popularność technologii AI, liczbę nowych aplikacji lub rozwiązań i zachęcić użytkowników do korzystania z już dostępnych usług. Bo firmy chronią swoje najcenniejsze zasoby. Trzeba pamiętać, że same zestawy narzędzi lub usług dostępnych w chmurze to nie wszystko. Bez dostarczenia dostatecznie dużej liczby danych i wytrenowania systemu najczęściej nie jest on użyteczny w praktycznych zastosowaniach.

Dlatego Google, Facebook, Amazon i Microsoft zbierają miliardy małych informacji o kliknięciach użytkowników, ich preferencjach, fotografiach, zapytaniach, które wpisują do wyszukiwarek itd., a następnie korzystają z utworzonej w ten sposób bazy danych do trenowania mechanizmów sztucznej inteligencji.

Mniejsze firmy nie mają takich możliwości i muszą kupić dane lub nawiązać współpracę z potentatami.

Nie zawsze jednak takie zbiory informacji są potrzebne i przydatne. W przypadku systemów o względnie wąskiej specjalizacji, gdy niezbędne jest dostarczenie danych dotyczących zestawu specyficznych produktów, technologii lub usług, firma chcąca skorzystać z narzędzi AI musi sama zadbać o dostarczenie im odpowiednich informacji i wytrenowanie systemu.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200