Nowa usługa chmurowa do korzystania z botów AI

Deweloperzy mogą już integrować w prosty sposób swoje aplikacje z oprogramowaniem ChatGPT, korzystając z opracowanej i udostępnionej im przez Microsoft w ostatnim czasie usługi Azure OpenAI Service.

Usługa (która jest oferowana na razie w wersji zapoznawczej) jest zagnieżdżona w chmurze Azure i korzystający z niej deweloperzy rozliczają się z jej dostawcą, płacąc specjalnymi tokenami. Azure OpenAI Service pozwala stosować różne zaawansowane duże modele językowe, które są obsługiwane przez wydajne komputery wchodzące w skład chmury Azure.

Jeśli chodzi o cenę usługi, to za cztery znaki znajdujące się w wygenerowanej przez AI odpowiedzi (udzielonej w języku angielskim) trzeba zapłacić jeden token. Oznacza to, że za obszerną odpowiedź mającą długość 1500 słów, trzeba zapłacić około 2 tys. tokenów. Natomiast krótka standardowa odpowiedź kosztuje w granicach 100 tokenów. Biorąc pod uwagę fakt, że 1000 tokenów ChatGPC kosztuje obecnie ok. 0,002 USD, nie jest to wygórowana opłata.

Zobacz również:

  • Asystent AI Copilot wkroczył do platformy Azure SQL Database
  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • Na rynku AI toczy się ostra walka o prymat. Dwaj główni rywale to ChatGPT i Gemini
W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200