Technologia

Google, jeden z największych zwolenników sztucznej inteligencji, ostrzega swoich pracowników przed chatbotami, ET BrandEquity

  • 20 czerwca, 2023
  • 4 min read
Google, jeden z największych zwolenników sztucznej inteligencji, ostrzega swoich pracowników przed chatbotami, ET BrandEquity


Zdjęcie pliku: Google

Alphabet Inc ostrzega pracowników przed tym, jak używają chatbotów, w tym własnego Barda, w tym samym czasie, gdy sprzedaje program na całym świecie, powiedział Reuterowi cztery osoby zaznajomione z tą sprawą.

Firma macierzysta Google poradziła pracownikom, aby nie wprowadzali swoich poufnych materiałów do chatbotów AI, powiedzieli ludzie, a firma potwierdziła, powołując się na wieloletnią politykę ochrony informacji.

Chatboty, wśród nich Bard i ChatGPT, to brzmiące jak ludzie programy, które wykorzystują tak zwaną generatywną sztuczną inteligencję do prowadzenia rozmów z użytkownikami i odpowiadania na niezliczone podpowiedzi. Recenzenci-ludzie mogą czytać czaty, a badacze odkryli, że podobna sztuczna inteligencja może odtworzyć dane, które pochłonęła podczas szkolenia, stwarzając ryzyko wycieku.

Alphabet zaalarmował również swoich inżynierów, aby unikali bezpośredniego używania kodu komputerowego, który mogą generować chatboty, powiedziały niektóre osoby.

ciąg dalszy poniżej

Poproszona o komentarz, firma stwierdziła, że ​​Bard może wprowadzać niepożądane sugestie dotyczące kodu, ale mimo to pomaga programistom. Google powiedział również, że ma na celu przejrzystość ograniczeń swojej technologii.

Obawy pokazują, w jaki sposób Google chce uniknąć szkód biznesowych ze strony oprogramowania, które uruchomiło w konkurencji z ChatGPT. Stawką w wyścigu Google ze sponsorami ChatGPT, OpenAI i Microsoft Corp, są miliardy dolarów inwestycji i wciąż niewypowiedziane przychody z reklam i chmury z nowych programów AI.

Warto przeczytać!  Jak wejść i wyjść z lotniska Blacksite bez klucza

Ostrożność Google odzwierciedla również to, co staje się standardem bezpieczeństwa dla korporacji, a mianowicie ostrzeganie personelu przed korzystaniem z publicznie dostępnych programów do czatowania.

Rosnąca liczba firm na całym świecie ustanowiła bariery dla chatbotów AI, wśród nich Samsung, Amazon.com i Deutsche Bank, firmy powiedziały Reuterowi. Apple, które nie zwróciło próśb o komentarz, podobno też to zrobiło.

Około 43% profesjonalistów korzystało od stycznia z ChatGPT lub innych narzędzi AI, często bez informowania o tym swoich szefów, wynika z ankiety przeprowadzonej na prawie 12 000 respondentów, w tym z czołowych amerykańskich firm, przeprowadzonej przez witrynę sieciową Fishbowl.

W lutym Google powiedział personelowi testującemu Bard przed jego uruchomieniem, aby nie podawał wewnętrznych informacji, poinformował Insider. Teraz Google wprowadza Bard do ponad 180 krajów i w 40 językach jako odskocznię dla kreatywności, a jego ostrzeżenia obejmują sugestie dotyczące kodu.

Google powiedział Reuterowi, że przeprowadził szczegółowe rozmowy z irlandzką Komisją Ochrony Danych i odpowiada na pytania organów regulacyjnych po wtorkowym raporcie Politico, że firma odkłada uruchomienie Barda w UE w tym tygodniu, czekając na więcej informacji na temat wpływu chatbota na prywatność.

Warto przeczytać!  Apple iPhone 13 dostępny z ogromną zniżką na Flipkart i Amazon: poznaj szczegóły

OBAWY O INFORMACJE WRAŻLIWE

Taka technologia może redagować e-maile, dokumenty, a nawet samo oprogramowanie, obiecując znaczne przyspieszenie zadań. Treści te mogą jednak zawierać błędne informacje, dane wrażliwe, a nawet chronione prawem autorskim fragmenty powieści o Harrym Potterze.

Informacja o ochronie prywatności Google zaktualizowana 1 czerwca stwierdza również: „Nie podawaj poufnych ani wrażliwych informacji w rozmowach z Bard”.

Niektóre firmy opracowały oprogramowanie, które rozwiązuje takie problemy. Na przykład Cloudflare, która chroni strony internetowe przed cyberatakami i oferuje inne usługi w chmurze, oferuje firmom możliwość oznaczania i ograniczania przepływu niektórych danych na zewnątrz.

Google i Microsoft oferują również klientom biznesowym narzędzia konwersacyjne, które będą miały wyższą cenę, ale powstrzymują się od wchłaniania danych do publicznych modeli AI. Domyślnym ustawieniem w Bard i ChatGPT jest zapisywanie historii rozmów użytkowników, którą użytkownicy mogą usunąć.

To ma sens, że firmy nie chcą, aby ich pracownicy używali publicznych chatbotów do pracy, powiedział Yusuf Mehdi, dyrektor ds.

„Firmy przyjmują należycie konserwatywne stanowisko” — powiedział Mehdi, wyjaśniając, jak bezpłatny chatbot Bing firmy Microsoft wypada w porównaniu z oprogramowaniem dla przedsiębiorstw. „Tam nasze zasady są znacznie bardziej rygorystyczne”.

Warto przeczytać!  Jak uzyskać dostęp do powłoki systemowej na dowolnym urządzeniu Samsung Galaxy

Microsoft odmówił komentarza na temat tego, czy ma ogólny zakaz wprowadzania przez pracowników poufnych informacji do publicznych programów sztucznej inteligencji, w tym do własnych, chociaż inny dyrektor powiedział Reuterowi, że osobiście ograniczył jego użycie.

Matthew Prince, dyrektor generalny Cloudflare, powiedział, że wpisywanie poufnych informacji do chatbotów było jak „uwolnienie grupy doktorantów we wszystkich prywatnych rejestrach”.

  • Opublikowano 20 czerwca 2023 o 10:20 IST

Najczęściej czytane w wersji cyfrowej

Dołącz do społeczności 2M+ profesjonalistów z branży

Zapisz się do naszego newslettera, aby otrzymywać najnowsze informacje i analizy.

Pobierz aplikację ETBrandEquity

  • Otrzymuj aktualizacje w czasie rzeczywistym
  • Zapisz swoje ulubione artykuły


Źródło