Technologia

Jak poufne przetwarzanie danych zmienia grę AI Chip

  • 3 marca, 2023
  • 5 min read
Jak poufne przetwarzanie danych zmienia grę AI Chip


Amazon ostrzega swoich pracowników przed udostępnianiem poufnych informacji ChatGPT. Podobnie wcześniej w rozmowie z CELGary Bhattacharjee z Infosys omówił, że firmy mają znacznie większe szanse na ochronę swojej własności intelektualnej za pomocą modeli takich jak CodeGen firmy HuggingFace, który jest specjalnie przeszkolony w zakresie kodów open source, niż w przypadku GPT, który praktycznie usuwa wszystko z sieci.

Amazon i Infosys nie są same. Wiele firm boi się ujawnić swoje dane ChatGPT, ponieważ sztuczna inteligencja wykorzystuje dane monitu wejściowego do dalszego szkolenia modelu. Z drugiej strony, aby móc ulepszyć te modele AI, nie ma innego sposobu niż wytrenowanie ich na jak największym zbiorze danych.

A jeśli spojrzymy na finanse, opiekę zdrowotną, rząd i inne wysoce regulowane branże, technologie podobne do ChatGPT są całkowicie nie do przyjęcia. Jednak w celu zwiększenia dostępu w tych branżach firmy działające w chmurze współpracują z dostawcami krzemu, aby zapewnić bezpieczeństwo danych poufne przetwarzanie.

Poufne przetwarzanie danych i LLM

Niedawno firma OpenAI udostępniła interfejs API ChatGPT swojego chatbota, aby użytkownicy mogli zintegrować się z ich aplikacjami i produktami. Dane przesłane do OpenAI API, CEO Sam Altman powiedziałnie będą wykorzystywane do treningu.

Tymczasem blog firmy NVIDIA wskazuje, że dzięki procesorom graficznym o architekturze Hopper wprowadzają na rynek akcelerację GPU do poufnych obliczeń w stylu maszyn wirtualnych. Hopper będzie w stanie skalować obciążenia sztucznej inteligencji w każdym centrum danych, od małych przedsiębiorstw po eksaskalowe obliczenia o wysokiej wydajności (HPC) i sztuczną inteligencję o bilionach parametrów.

Warto przeczytać!  iOS 18 Beta: Funkcja wyszukiwania na stronie w Safari ma nowy dom

Pobierz naszą aplikację mobilną


Według niedawnego raportu o Sprzęt Toma, NVIDIA rozpoczęła wysyłkę H100 (Hopper), który ma być następcą A100. Podczas gdy doniesienia medialne podkreślały znaczną poprawę wydajności i wyższą przepustowość szkolenia AI, to, co poszło nie tak, to integracja poufnych obliczeń w H100.

Aby OpenAI spełniło swoje komercyjne ambicje, zagłębienie się w aspekt prywatności danych – pomimo znacznych kosztów (potrzebowałoby około 30 000 takich procesorów graficznych do uruchomienia modelu) – było absolutnie krytyczne. „Przetwarzanie poufne to bardziej skalowalny sposób rozwiązywania problemów związanych z bezpieczeństwem danych lub prywatnością związanych z ChatGPT, w przeciwieństwie do tokenizacji lub technik szyfrowania na poziomie aplikacji” — mówi Kishan Patel, regionalny wiceprezes ds. sprzedaży w Anjuna Security.

Jak to działa?

Poufne maszyny wirtualne to sprzętowe rozwiązanie zabezpieczające, które umożliwia organizacjom ochronę najbardziej wrażliwych danych nawet podczas ich przetwarzania. Technologia wykorzystuje sprzętowe zaufane środowisko wykonawcze (TEE), które jest zasadniczo wymuszoną sprzętowo enklawą bezpieczeństwa całkowicie odizolowaną od reszty systemu.

Dwuetapowy proces wyjaśniony przez Rejestr daje zrozumienie: Po pierwsze, aby umożliwić poufne przetwarzanie na GPU, dane są szyfrowane przed przesłaniem między CPU a GPU przez magistralę PCIe, przy użyciu bezpiecznych kluczy szyfrujących, które są wymieniane między sterownikiem urządzenia NVIDIA a GPU. Po drugie, po przesłaniu danych do GPU są one odszyfrowywane w chronionym sprzętowo, odizolowanym środowisku wewnątrz pakietu GPU, gdzie mogą być przetwarzane w celu wygenerowania modeli lub wyników wnioskowania.

Warto przeczytać!  ChatGPT kontra Bard, jak ChatGPT OpenAI wypada w porównaniu z Google Bard

Izolacja zapewnia ochronę aplikacji i danych przed różnego rodzaju atakami, które potencjalnie mogą pochodzić z oprogramowania układowego, systemów operacyjnych, hiperwizorów, maszyn wirtualnych, a nawet fizycznych interfejsów, takich jak porty USB lub złącza PCI Express w komputerze.

źródło: NVIDIA

NVIDIA kontra AMD kontra Intel

NVIDIA nie jest jedynym graczem w mieście — Intel i AMD również są w grze, robiąc stałe postępy.

W zeszłym roku Intel przedstawił projekt Amber, którego celem było zapewnienie podstaw bezpieczeństwa dla poufnych obliczeń, zwłaszcza jeśli chodzi o szkolenie i wdrażanie modeli AI. Ostatnio firma dodała również Trust Domain Extensions (TDX), które są oparte na tej samej technologii izolacji maszyn wirtualnych, do swoich procesorów Xeon czwartej generacji.

Podobnie AMD nawiązało współpracę z Google Cloud, aby zapewnić dodatkową warstwę bezpieczeństwa procesorom Epyc projektanta chipów. Wynikało to z faktu, że w tamtym czasie AMD było jedyną firmą, która zapewniała poufne możliwości obliczeniowe w głównych procesorach serwerowych.

Rejestr zauważa, że ​​firmy produkujące chipy są bardziej zachęcane do współpracy z dostawcami usług w chmurze, takimi jak Microsoft, Google, IBM, Oracle i inni, aby mogły kupować znaczną liczbę swoich procesorów. Analitycy bezpieczeństwa w tych firmach chmurowych będą mogli przeanalizować każdy szczegół implementacji urządzenia i jego niestandardowe testy. Zwłaszcza to, że niezależni badacze w przeszłości wielokrotnie odkrywali kilka błędów zarówno w Intel SGX, jak i AMD SEV.

Warto przeczytać!  Gdzie znaleźć Fungal Wood w ARK Fjordur

Ponadto trwają wysiłki społeczności open source, takich jak RISC-V, mające na celu wdrożenie poufnego przetwarzania w ramach projektu open source o nazwie Keystone.

Jednakże, chociaż powyższe wysiłki miały na celu zapewnienie bezpieczeństwa na poziomie procesora, architektura Hopper firmy NVIDIA zapewnia GPU poufne przetwarzanie w stylu maszyny wirtualnej. Biorąc pod uwagę, że NVIDIA stawia na sztuczną inteligencję, wprowadzenie poufnych obliczeń do procesorów graficznych daje jej dodatkową przewagę.

Według jednego z badań rynek poufnego przetwarzania danych może wzrosnąć 26-krotnie w ciągu pięciu lat, osiągając wartość 54 miliardów dolarów do 2026 r. Dlatego nie będzie przesadą stwierdzenie, że bezpieczeństwo chmury będzie jednym z największych czynników napędzających wyścig chipów AI .




Źródło