Microsoft uruchamia usługę bezpieczeństwa dla treści tworzonych przez sztuczną inteligencję

Usługa Azure AI Content Safety firmy Microsoft obejmuje wykrywanie obrazów i tekstu w celu identyfikowania i oceniania treści na podstawie prawdopodobieństwa, że mogą one naruszać prawa autorskie bądź powodować inne szkody.

Shutterstock

Microsoft ogłosił ogólną dostępność Azure AI Content Safety, nowej usługi, która pomaga użytkownikom wykrywać i filtrować szkodliwe treści generowane przez sztuczną inteligencję i użytkowników w aplikacjach i usługach. Usługa obejmuje wykrywanie tekstu i obrazu oraz identyfikuje treści, które Microsoft określa jako „obraźliwe, ryzykowne lub niepożądane”, w tym wulgaryzmy, treści dla dorosłych, przemoc czy tzw. mowę nienawiści. „Koncentrując się na bezpieczeństwie treści, możemy stworzyć bezpieczniejsze środowisko cyfrowe, które promuje odpowiedzialne korzystanie z AI i chroni dobrobyt jednostek i całego społeczeństwa”, skomentowała nowość Louise Han, menedżer produktu Azure Anomaly Detector, w poście na blogu ogłaszającym uruchomienie usługi.

Azure AI Content Safety ma możliwość obsługi różnych kategorii treści, języków i zagrożeń w celu moderowania zarówno treści tekstowych, jak i wizualnych. Oferuje również funkcje obrazu, które wykorzystują algorytmy sztucznej inteligencji do skanowania, analizowania i moderowania treści wizualnych, zapewniając to, co Microsoft określa jako kompleksowe środki bezpieczeństwa 360 stopni.

Zobacz również:

  • Najszybszy Helios w Cyfronecie

Usługa jest również przystosowana do moderowania treści w wielu językach i wykorzystuje wskaźnik dotkliwości, który wskazuje dotkliwość określonych treści w skali od 0 do 7.

Treści ocenione na 0-1 są uważane za bezpieczne i odpowiednie dla wszystkich odbiorców, podczas gdy treści wyrażające uprzedzenia, osądy lub opinie są oceniane na 2-3 lub niżej.

Treści o średniej wadze są oceniane na 4-5 i zawierają obraźliwy, obraźliwy, szyderczy, zastraszający język lub wyraźne ataki na grupy tożsamości, podczas gdy treści o wysokiej wadze, które zawierają szkodliwe i wyraźne promowanie szkodliwych działań lub popierają lub gloryfikują ekstremalne formy szkodliwych działań wobec grup tożsamości, są oceniane na 6-7.

Azure AI Content Safety wykorzystuje również filtrowanie wielokategorialne do identyfikowania i kategoryzowania szkodliwych treści w wielu krytycznych domenach, w tym nienawiści, przemocy, samookaleczenia i seksualności.

„[Jeśli chodzi o bezpieczeństwo online] kluczowe jest uwzględnienie czegoś więcej niż tylko treści generowanych przez ludzi, zwłaszcza że treści generowane przez sztuczną inteligencję stają się powszechne. Zapewnienie dokładności, wiarygodności i braku szkodliwych lub nieodpowiednich materiałów w wynikach generowanych przez sztuczną inteligencję ma zasadnicze znaczenie. Bezpieczeństwo treści nie tylko chroni użytkowników przed dezinformacją i potencjalnymi szkodami, ale także utrzymuje standardy etyczne i buduje zaufanie do technologii AI”, napisała Louise Han.

Usługa Azure AI Content Safety jest wyceniana na zasadzie płatności zgodnie z rzeczywistym użyciem. Zainteresowani użytkownicy mogą sprawdzić opcje cenowe na stronie cennika usługi Azure AI Content Safety.

Źródło: Computerworld USA

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200