Jak chmury publiczne wprowadzają innowacje w zakresie AI

Firmy, które nie mają zasobów do opracowania własnych modeli uczenia maszynowego, zwracają się do dużych dostawców usług w chmurze.

Jak chmury publiczne wprowadzają innowacje w zakresie AI

Thinkstock

Trzej wielcy dostawcy usług w chmurze, a konkretnie Amazon Web Services (AWS), Microsoft Azure i Google Cloud Platform (GCP), chcą, aby programiści i naukowcy zajmujący się danymi tworzyli, testowali i wdrażali modele uczenia maszynowego w ich chmurach. Jest to dla nich lukratywne przedsięwzięcie, ponieważ modele testowe często wymagają rozległej infrastruktury, a modele produkcyjne często wymagają wysokiej dostępności.

Są to lukratywne usługi dla dostawców usług w chmurze. Oferują korzyści swoim klientom, ale nie chcą konkurować tylko w zakresie infrastruktury, poziomu usług i cen. Koncentrują się na wszechstronnych „rampach”, aby ułatwić klientom korzystanie z ich możliwości uczenia maszynowego. Każda chmura publiczna oferuje wiele opcji przechowywania danych, w tym bezserwerowe bazy danych, hurtownie danych, jeziora danych i magazyny danych NoSQL, dzięki czemu wzrasta istnieje prawdopodobieństwo tworzenia modeli w pobliżu miejsca, w którym znajdują się dane. Oferują one popularne frameworki uczenia maszynowego, w tym TensorFlow i PyTorch, dzięki czemu ich chmury są kompleksowym rozwiązaniem dla zespołów zajmujących się naukami o danych, którym zależy na elastyczności. Wszystkie trzy oferują Modelops, MLops i rosnącą liczbę możliwości obsługi pełnego cyklu życia uczenia maszynowego.

Zobacz również:

  • Microsoft zapowiada nową linię małych modeli językowych AI
  • Blaski i cienie AI

Ostatnie badania pokazują, że 78% projektów z zakresu sztucznej inteligencji (AI) i uczenia maszynowego (ML) w przedsiębiorstwach jest wdrażanych z wykorzystaniem infrastruktury chmury hybrydowej, więc chmury publiczne mają jeszcze dużo miejsca na rozwój. Oznacza to, że będą musiały nadal wprowadzać innowacje, oferując nowe i wyróżniające się możliwości.

Te innowacje pojawiają się w kilku kategoriach, aby pomóc przedsiębiorstwom w prowadzeniu uczenia maszynowego na skalę, z większą ilością usług i łatwiejszymi w użyciu platformami. Oto kilka szczegółów.

Bitwa na chipy AI

Eksperymenty z uczeniem maszynowym nadal są prowadzone, a duże i bardziej złożone modele wymagają szkolenia na ogromnych ilościach danych. Microsoft i Nvidia ogłosiły niedawno stworzenie ogromnego procesora językowego o 530 miliardach parametrów, podczas gdy Google twierdzi, że na początku tego roku wytrenował model o 1,6 biliona parametrów.

Szkolenie modeli o takim rozmiarze i złożoności może zająć dużo czasu i stać się kosztowne, więc chmury publiczne wprowadzają innowacje w zakresie chipów AI i opcji infrastruktury. AWS posiada już Inferentia i Trainium; niedawno ogłosiła nowe instancje EC2 zasilane przez Gaudi firmy Habana, które oferują o 40% lepszy stosunek ceny do wydajności w porównaniu z najnowszymi EC2 zasilanymi przez GPU.

Tymczasem Google ogłosił TPU v4 wcześniej, w 2021 roku. Jego czwarta generacja procesorów tensorowych wykazuje średnią poprawę wydajności o 2,7 raza w stosunku do TPU v3. Można się spodziewać więcej innowacji sprzętowych w postaci chipów i akceleratorów AI od Cerebras, Graphcore, Nvidia i SambaNova.

Chipy nie są jedynymi możliwościami infrastruktury wspierającej AI, a wszystkie trzy chmury publiczne posiadają platformy do obliczeń brzegowych, aby pomóc we wdrażaniu modeli uczenia maszynowego dla Internetu rzeczy i innych aplikacji strumieniowych.

Bitwa na usługi AI

Większość zespołów data science nie będzie rozwijać AI na masową skalę, ale chce tworzyć i konfigurować zaawansowane modele uczenia maszynowego. Wszyscy trzej dostawcy usług w chmurze rozwijają usługi uczenia maszynowego i spodziewam się, że w ciągu najbliższych kilku lat usługi te znacznie się rozwiną.

Poniżej znajduje się krótki przegląd usług uczenia maszynowego oferowanych na Azure, GCP i AWS:

Usługi Cognitive firmy Microsoft obejmują usługi mowy, usługi językowe do analizy sentymentu oraz usługi pytań i odpowiedzi często wykorzystywane w chatbotach. Ich usługi wizyjne obejmują rozpoznawanie twarzy, a także mają usługi wspomagania decyzji wykorzystywane do personalizacji i wykrywania anomalii.

Microsoft niedawno ogłosił usługę OpenAI, która łączy się z modelem języka naturalnego GPT-3, który obsługuje wyszukiwanie, konwersacje, uzupełnianie tekstu i inne usługi.

Google Cloud ma kilka usług AI związanych z przetwarzaniem dokumentów, w tym DocAI do ogólnego przetwarzania dokumentów i rozwiązań wertykalnych dla kredytowania, zamówień, centrów kontaktowych i zarządzania umowami.

Usługi AWS w zakresie uczenia maszynowego obejmują Rekognition w zakresie widzenia komputerowego, Textract do przetwarzania dokumentów, Lex dla chatbotów, CodeGuru do przeglądania kodu oraz Personalize do dostosowywania aplikacji internetowych.

AWS oferuje również branżowe rozwiązania AI, takie jak Amazon HealthLake umożliwiający przewidywanie na podstawie danych zdrowotnych, Amazon Lookout do identyfikacji nietypowych zachowań sprzętu oraz Amazon Fraud Detector dla usług finansowych i innych branż.

Czy zobaczymy więcej modeli uczenia maszynowego jako usługi (MLaaS) z chmur publicznych i innych konkurentów? Dr Kirk Borne, Chief Science Officer w DataPrime, uważa, że tak. „Zobaczymy więcej ofert MLaaS lub models-as-a-service ze względu na rosnące wyrafinowanie tych modeli i odpowiadające im wydatki na ich szkolenie. Mniej organizacji będzie chciało inwestować czas i talent, aby budować własne instancje tych wstępnie wytrenowanych modeli.” I dodaje, „Ogromna liczba małych i średnich firm, które zaczynają korzystać z ML i AI, znajdzie oferty X-aaS idealnie dopasowane do ich czasu, budżetu i wymagań strategicznych. MLaaS pomaga również rozwiązać problem wszechobecnej luki talentów poprzez wykorzystanie wstępnie wytrenowanych modeli jako usługi, które wykorzystują zaawansowane i potężne algorytmy.”

Bitwa o większą dostępność AI

Następną granicą dla chmur publicznych jest umożliwienie ich uczenia maszynowego i możliwości AI organizacjom, które mogą nie mieć zaawansowanych zespołów rozwoju oprogramowania i nauki o danych. Robią to za pomocą technologii low-code, które albo mają wbudowane możliwości uczenia maszynowego, albo pomagają programistom interfejsować z ich innymi usługami AI.

AWS SageMaker’s IDE upraszcza tworzenie, testowanie i wdrażanie modeli uczenia maszynowego. IDE zapewnia kilka zaawansowanych możliwości, w tym wrangler danych, aby pomóc naukowcom w przygotowaniu danych, sklep z funkcjami, aby promować współpracę i ponowne wykorzystanie między zespołami zajmującymi się naukami o danych, a także możliwości wdrażania za pomocą jednego kliknięcia. AWS Sagemaker konkuruje z platformami do nauki o danych, takimi jak Alteryx, Dataiku, KNIME i SAS.

Microsoft oferuje Azure Machine Learning Studio, portal, który łączy doświadczenia no-code i code-first dla naukowców danych. Ich bardziej zaawansowana oferta AI low-code to AI Builder dla platformy Power Apps, która umożliwia programistom low-code wykonywanie klasyfikacji tekstu, wykrywanie obiektów i przetwarzanie formularzy.

Google stosuje podobne podejście, wykorzystując AutoML do szkolenia modeli. Wbudowana inteligencja AppSheet obejmuje przewidywanie trendów, klasyfikację treści, analizę sentymentu i inne funkcje. Chmury publiczne konkurują z innymi platformami low-code oferującymi możliwości uczenia maszynowego, w tym Creatio, Outsystems, Thinkwise, Vantiq i innymi.

Interesujące będzie zobaczyć, jak chmury publiczne, startupy, dostawcy oprogramowania dla przedsiębiorstw, producenci układów scalonych, dostawcy infrastruktury i platformy open source konkurują w zakresie sztucznej inteligencji i innowacji uczenia maszynowego, aby wspierać większe modele, więcej usług i łatwiejsze „rampy” dla integracji aplikacji.

Źródło: Info World

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200