Technologia

Google ostrzega pracowników przed wykorzystywaniem poufnych informacji w AI Chatbot

  • 17 czerwca, 2023
  • 4 min read
Google ostrzega pracowników przed wykorzystywaniem poufnych informacji w AI Chatbot


Alphabet, firma macierzysta Google, ostrzegała pracowników przed niebezpieczeństwami związanymi z narzędziami sztucznej inteligencji i radziła im, aby nie wprowadzali poufnych informacji do chatbotów, w tym własnego chatbota Bard.

Według doniesień Alphabet ostrzegał pracowników przed używaniem chatbotów AI, takich jak ChatGPT Open AI, do przesyłania poufnych danych. Firma zweryfikowała to, powołując się na wieloletnią politykę bezpieczeństwa informacji. 1 czerwca w zaktualizowanej informacji o ochronie prywatności Google napisano: „Nie podawaj poufnych ani wrażliwych informacji w rozmowach z Bard”.

Chatboty, takie jak Bard i ChatGPT, to brzmiące jak ludzie aplikacje, które angażują się w dyskusje z użytkownikami i odpowiadają na szeroki zakres pytań za pomocą tzw. sztucznej inteligencji generatywnej. Czaty tworzone na Chatbotach mogą być przeglądane i odczytywane przez weryfikatorów, a badacze odkryli, że podobna sztuczna inteligencja może duplikować dane, które pochłonęła podczas szkolenia, co może stwarzać ryzyko wycieku.

Ponadto Alphabet ostrzegł swoich inżynierów przed bezpośrednim wykorzystaniem kodu komputerowego generowanego przez chatbota. Pomimo faktu, że boty mogą generować określone rodzaje kodu, są one również narażone na niebezpieczeństwo wprowadzenia błędów lub wygenerowania „niepożądanych” sugestii. Google stwierdził również, że chce być przejrzysty w kwestii ograniczeń swojej technologii.

Warto przeczytać!  5 powodów, dla których warto mieć Ubermacht Revolter w GTA Online po aktualizacji Ostatnia dawka

Obawy podkreślają pragnienie Google, aby zapobiec szkodom biznesowym w wyniku oprogramowania, które wypuściło, aby konkurować z ChatGPT. W grę wchodzą miliardy dolarów inwestycji, a także niezliczone kwoty przychodów z reklam i chmury z nowych programów AI w konkurencji Google ze zwolennikami ChatGPT, OpenAI i Microsoft.

Ostrzeżenie Google odzwierciedla również to, co staje się normą bezpieczeństwa dla firm, ostrzegając pracowników przed korzystaniem z programów do czatowania, które są dostępne dla ogółu społeczeństwa. Rosnąca liczba firm na całym świecie, w tym Samsung, Amazon, Apple i Deutsche Bank, nakłada ograniczenia na chatboty AI.

W ankiecie przeprowadzonej przez portal Fishbowl około 43 procent profesjonalistów często korzysta z narzędzi sztucznej inteligencji, takich jak ChatGPT, bez informowania o tym swoich szefów. W ankiecie wzięło udział około 12 000 respondentów, w tym przedstawiciele czołowych firm amerykańskich. Trend ten wywołał poważne obawy wśród badaczy, firm i krajów dotyczące prywatności i szans na zatrudnienie, ponieważ narzędzia sztucznej inteligencji stają się w stanie zastąpić ludzi.

W oświadczeniu przekazanym Politico rzecznik Google powiedział: „W maju powiedzieliśmy, że chcemy, aby Bard był bardziej dostępny, w tym w Unii Europejskiej, i że zrobimy to odpowiedzialnie, po konsultacji z ekspertami, organami regulacyjnymi i decydentami”. . Rzecznik dodał: „W ramach tego procesu rozmawialiśmy z regulatorami prywatności, aby odpowiedzieć na ich pytania i usłyszeć opinie”.

Warto przeczytać!  Oczekiwana premiera nowego iPada Air i modelu Pro na rok 2024: co wiemy do tej pory

Niektóre firmy stworzyły oprogramowanie, które rozwiązuje takie problemy. Na przykład Cloudflare, firma chroniąca strony internetowe przed cyberatakami i świadcząca inne usługi w chmurze, promuje funkcję, która umożliwia firmom oznaczanie i zapobieganie przedostawaniu się niektórych danych na zewnątrz. Dyrektor generalny Cloudflare, Matthew Prince, stwierdził, że umieszczanie poufnych danych w chatbotach jest jak „uwolnienie grupy doktorantów we wszystkich prywatnych rejestrach”

Ponadto Google i Microsoft dostarczają klientom biznesowym narzędzia konwersacyjne po wyższych kosztach, ale drogie narzędzia będą zatrzymywać ich dane w modelach AI typu open source. Użytkownicy mogą usunąć swoją historię rozmów w Bard i ChatGPT, która jest zapisywana ze względu na ustawienie domyślne.




Źródło