Inteligentna chmura danych

Snowflake i Mistral AI ogłosiły globalne partnerstwo w celu udostępnienia najpotężniejszych modeli językowych Mistral AI bezpośrednio klientom Snowflake w Chmurze Danych firmy.

fot. mat. pras.

Snowflake jest zaangażowany w rozwój innowacji w zakresie sztucznej inteligencji nie tylko dla swoich klientów i ekosystemu Chmury Danych, ale także dla szerszej społeczności technologicznej. Firma dołączyła niedawno do AI Alliance, międzynarodowej społeczności programistów, badaczy i organizacji zajmujących się promowaniem otwartej, bezpiecznej i odpowiedzialnej sztucznej inteligencji.

Teraz robi kolejne kroki. Dzięki partnerstwu z Mistral AI, klienci Snowflake uzyskają dostęp do najnowszego i najpotężniejszego modelu firmy, Mistral Large, będącego jednym z najbardziej wydajnych LLM-ów na świecie. Model może przetwarzać setki stron dokumentów podczas jednego połączenia. Ponadto klienci Snowflake uzyskają dostęp do Mixtral 8x7B, modelu open source Mistral AI, który przewyższa GPT3.5 OpenAI pod względem szybkości i jakości w większości testów porównawczych, oraz Mistral 7B, pierwszego modelu podstawowego Mistral AI zoptymalizowanego pod kątem niskiego opóźnienia przy niewielkim zapotrzebowaniu na pamięć i relatywnie wysokiej przepustowości.

Zobacz również:

  • Majowa konferencja Apple może być ważniejsza niż oczekujemy
  • Blaski i cienie AI
  • IDC CIO Summit – potencjał drzemiący w algorytmach

Modele Mistral AI są teraz dostępne dla klientów w publicznej wersji zapoznawczej jako część Snowflake Cortex, w pełni zarządzanej usługi LLM i wyszukiwania wektorowego, która umożliwia organizacjom przyspieszenie analiz i szybkie tworzenie aplikacji AI w bezpieczny sposób z wykorzystaniem danych przedsiębiorstwa.

Dzięki Snowflake Cortex LLM Functions, rozwiązaniu będącemu obecnie w publicznej wersji zapoznawczej, użytkownicy Snowflake mogą wykorzystać sztuczną inteligencję do obsługi szerokiej gamy przypadków użycia. Korzystając ze specjalistycznych funkcji, każdy użytkownik z umiejętnościami SQL może wykorzystać mniejsze LLM-y do efektywnego kosztowo rozwiązywania konkretnych zadań w ciągu kilku sekund. W przypadku bardziej złożonych przypadków użycia, programiści Python mogą przejść od koncepcji do pełnych aplikacji AI, takich jak chatboty, w ciągu kilku minut – wszystko to łącząc moc modeli podstawowych, jak choćby LLM firmy Mistral AI w Snowflake Cortex, z elementami czatu w ramach Streamlit in Snowflake. To usprawnione doświadczenie dotyczy również wykorzystania techniki RAG ze zintegrowanymi funkcjami wektorowymi Snowflake i wektorowymi typami danych, przy jednoczesnym zapewnieniu, że dane nigdy nie opuszczą obwodu bezpieczeństwa i zarządzania Snowflake.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200