Technologia

Brakujące ogniwo do bezproblemowego przyjęcia LLM w przedsiębiorstwie

  • 16 czerwca, 2023
  • 5 min read
Brakujące ogniwo do bezproblemowego przyjęcia LLM w przedsiębiorstwie


Podczas gdy generatywna sztuczna inteligencja stała się największym modnym hasłem 2023 r., przedsiębiorstwa wciąż starają się znaleźć przypadki użycia tej technologii. Co więcej, wspólne ograniczenia LLM – takie jak halucynacje, niezdolność do pozostania aktualnym i podatność na szybkie zastrzyki, czynią z nich gorącego ziemniaka dla przedsiębiorstw.

Aby rozwiązać niektóre z tych problemów i usunąć przeszkody utrudniające przyjęcie LLM przez przedsiębiorstwa, firmy podjęły się stworzenia barier, które sprawią, że te stochastyczne papugi będą rozmawiać na ten temat. Na przykład punkt końcowy OpenAI do moderowania treści uniemożliwia jego interfejsom API generowanie szkodliwych lub nienawistnych treści, podczas gdy inne, takie jak NeMo Guardrails SDK firmy NVIDIA, bardziej kompleksowo chronią przed wadami LLM.

Tymczasem ostatnie doniesienia donosiły, że badacze znaleźli niedociągnięcia w pakiecie SDK NeMo Guardrails firmy NVIDIA. Chociaż funkcjonalność poręczy można rozszerzyć, jasne jest, że wciąż jesteśmy na ścieżce uczynienia LLM bezpiecznymi do użytku w przedsiębiorstwach. Teraz obserwujemy początek ekosystemu narzędzi, dzięki którym LLM są bezpieczne dla przedsiębiorstw. Czy to wystarczy, aby pobudzić adopcję LLM w przedsiębiorstwie?

Warto przeczytać!  Twój przewodnik po zakupie idealnego smartwatcha

Wpisz LangKit

LangKit został wydany na początku tego tygodnia jako sposób na śledzenie wyników LLM. Ten zestaw narzędzi do monitorowania zapewnia zestaw wskaźników, które mogą mierzyć jakość tekstów wejściowych lub wyjściowych z różnych chatbotów opartych na LLM, takich jak Bing Chat, GPT-4, Baidu i Google Bard. Łączy się również z innymi ekosystemami, takimi jak Hugging Face i LangChain.

LangKit został udostępniony przez firmę o nazwie WhyLabs, która buduje platformę obserwacji AI dla przedsiębiorstw. Dzięki platformie WhyLabs przedsiębiorstwa mogą szybciej wykrywać problemy z uczeniem maszynowym i stale wdrażać modele. Posiada również funkcje, takie jak wykrywanie wartości odstających, monitorowanie dryfu danych i silny nacisk na prywatność danych

To sprawia, że ​​zestaw narzędzi LangKit jest ostatnim elementem układanki, jeśli chodzi o platformę WhyLabs, która już przejmuje wiele zadań związanych z obserwowalnością sztucznej inteligencji dla przedsiębiorstw. Zestaw narzędzi został wydany jako sposób na zapewnienie lepszego wglądu w to, co LLM robią podczas wdrażania. Zawiera również szereg środków zapobiegawczych w celu ochrony przed złośliwymi użytkownikami.

LangKit może chronić LLM przed halucynacjami, toksycznością, złośliwymi monitami, a nawet próbami ucieczki z więzienia. Zestaw narzędzi robi to, monitorując różne wskaźniki, takie jak jakość tekstu, trafność tekstu, ogólne bezpieczeństwo i prywatność LLM oraz tonacja tekstu.

Warto przeczytać!  Google Pixel 8a dostępny na Flipkart za mniej niż 50 000 rupii, oto jak działa oferta

Bezpieczeństwo jest zachowane dzięki poddaniu danych wprowadzonych przez użytkownika algorytmowi oceny podobieństwa, który porównuje dane wprowadzone przez użytkownika ze znanymi próbami jailbreaka i szybkimi atakami polegającymi na wstrzykiwaniu. Jeśli wynik jest zbyt wysoki, dane wejściowe są odrzucane. Podobnie zestaw narzędzi sprawdza różne metryki, aby upewnić się, że LLM działa zgodnie ze specyfikacjami.

LangKit to tylko jedno z wielu narzędzi, za pomocą których firmy mogą zwiększać bezpieczeństwo swoich modeli. Wraz z postępem adopcji w przedsiębiorstwach pojawia się coraz więcej produktów, które łagodzą niektóre wady wdrażania LLM.

Rozwiązanie dla niezawodności LLM

LLM to wybredne bestie do oswojenia. Ze względu na ich proces uczenia i zestawy danych, dostosowanie tych chwalebnych algorytmów autouzupełniania jest trudnym przedsięwzięciem. Krytyka LLM obejmuje to, że są „generatorami bzdur” lub „stochastycznymi papugami”, które nie rozumieją języka naturalnego, ale wiedzą, jak nim manipulować.

Ten zestaw luk spowodował zamknięcie LLM w ciągu dwóch dni, kontrowersje wokół obłąkanego chatbota, a nawet spadki cen akcji. Biorąc pod uwagę ryzyko związane z wdrażaniem LLM w środowisku korporacyjnym, nie jest niespodzianką, że decydenci ociągają się.

Warto przeczytać!  Asus Chromebook Plus i nie tylko

Rozwiązania takie jak LangKit, NeMo Guardrails i wiele innych wschodzących firm w zakresie bezpieczeństwa i obserwowalności sztucznej inteligencji są dokładnie tym, czego potrzebuje przedsiębiorstwo, aby wdrożyć LLM. Narzędzia te, wraz z platformami obserwacyjnymi AI, mogą pomóc firmom w przyjęciu LLM bez ryzyka niedopasowania wyników.

Chociaż jest ich niewiele, platformy obserwacji AI są oferowane przez firmy takie jak IBM, WhyLabs i Fiddler. Usługi te mogą wypełnić lukę między procesami a LLM, zapewniając firmom większą przejrzystość podczas wdrażania tych modeli. W połączeniu z poręczami może to być początek stosu technologii dla korporacyjnych LLM.

Ostateczny rozwój ekosystemu bezpieczeństwa LLM stanie się jednym z najważniejszych czynników skłaniających liderów przedsiębiorstw do wyprzedzania konkurencji i przyjmowania nowych technologii w miarę ich pojawiania się. Jednak firmy muszą również upewnić się, że nadążają za platformami obserwacyjnymi AI i barierami ochronnymi, aby bezpiecznie i odpowiedzialnie wdrażać LLM.


Źródło