Technologia

Pracownicy Google, którzy pomogli przetestować Bard, ostrzegli, że jego rady mogą spowodować poważne obrażenia, nazywając je bezużytecznymi

  • 20 kwietnia, 2023
  • 4 min read
Pracownicy Google, którzy pomogli przetestować Bard, ostrzegli, że jego rady mogą spowodować poważne obrażenia, nazywając je bezużytecznymi


Przez Divyanshi Sharmę: Od samego początku chatbot Google Bard ze sztuczną inteligencją nie był tak naprawdę ulubieńcem swoich pracowników. W lutym, kiedy Bard właśnie został uruchomiony, pojawiły się doniesienia, że ​​​​pracownicy nie byli zadowoleni ze sposobu, w jaki ogłoszenie zostało potraktowane i nazwali je „pośpiesznym, nieudanym i nie-Google”. Następnie firma zwróciła się do swoich pracowników o pomoc w naprawieniu błędów Barda, ogłaszając zachęty dla pracowników, którzy zgodzili się to zrobić. Dyrektor generalny Sundar Pichai ujawnił, że ponad 80 000 pracowników pomogło wewnętrznie przetestować Bard, a nawet podziękowało im za pośrednictwem poczty elektronicznej. Jednak, zgodnie z niedawnym raportem Bloomberga, niektórzy pracownicy Google, którzy testowali Barda, nie byli zbyt zadowoleni z chatbota AI i nazwali go „bezużytecznym” i „patologicznym kłamcą”. Pracownik ostrzegł również, że porady Barda w niektórych przypadkach mogą prowadzić do „śmierci lub obrażeń”.

Pracownicy Google ostrzegają przed Bardem

Raport Bloomberg stwierdza, że ​​​​publikacja zapoznała się z wewnętrznym dokumentem, zgodnie z którym 18 obecnych i byłych pracowników Google stwierdziło, że Bard podawał informacje niskiej jakości „w wyścigu, aby nadążyć za konkurencją”, przy czym „mniej priorytetowo traktował swoje zobowiązania etyczne” ’.

Warto przeczytać!  Najlepsze budżetowe smartfony 2023 roku poniżej 15 000: Od Redmi 12 po Tecno Pova 5, sprawdź teraz

Jeden z pracowników Google nazwał Barda „patologicznym kłamcą”, ujawniają zrzuty ekranu z wewnętrznej dyskusji, do których dotarł Bloomberg. Inny pracownik powiedział, że to „warto zawstydzić”. To nie wszystko, gdy pracownik poprosił Barda o sugestie dotyczące lądowania samolotu, dał radę, która doprowadziłaby do katastrofy. Inny pracownik napisał, że odpowiedzi Barda dotyczące nurkowania z akwalungiem prawdopodobnie skutkowałyby „obrażeniem lub śmiercią”.

Raport Bloomberga dodaje, że pracownikom odpowiedzialnym za dbanie o bezpieczeństwo i implikacje etyczne nowych produktów powiedziano, aby „nie przeszkadzali ani nie próbowali zabijać żadnego z generatywnych narzędzi sztucznej inteligencji w fazie rozwoju”.

Kiedy Bloomberg skontaktował się z Google z kilkoma pytaniami, gigant technologiczny powiedział, że priorytetowo traktuje odpowiedzialną sztuczną inteligencję.

Brian Gabriel, rzecznik Google, powiedział publikacji: „Nadal inwestujemy w zespoły, które pracują nad zastosowaniem naszych zasad sztucznej inteligencji w naszej technologii”.

Kiedy Sundar Pichai obiecał lepszy występ od Barda

W styczniu tego roku raporty sugerowały, że Google traci sen z powodu „ChatGPT”, co doprowadziło do „czerwonej” sytuacji w biurach Google. W następnym miesiącu Google w dość chaotyczny sposób wdrożył chatbota AI Bard. Bard popełnił błąd rzeczowy w swoim ogłoszeniu wprowadzającym, na co zwrócił uwagę Reuters. Następnie, podczas konferencji prasowej w Paryżu, wpadka wprawiła Google w zakłopotanie, gdy zaginął telefon demonstracyjny. Doprowadziło to do światowej krytyki, a ludzie uważali, że całe ogłoszenie było raczej pośpieszne.

Warto przeczytać!  Weekend Drive autorstwa Hormazda Sorabjee: Zwycięska passa

W wywiadzie dla The New York Times na początku tego miesiąca Sundar Pichai powiedział, że nie przypomina sobie wydania „sytuacji z czerwonym kodem”, dodając, że być może byli inni w firmie, którzy „wysłali e-maile z informacją, że istnieje kod czerwony”.

Mówiąc, że firma ma bardziej wydajne modele, Pichai dodał: „Całkiem niedługo, być może tak [podcast] zostanie uruchomiona, będziemy aktualizować Barda do niektórych z naszych bardziej wydajnych modeli PaLM, które zapewnią więcej możliwości; czy to w rozumowaniu, kodowaniu, może lepiej odpowiadać na pytania matematyczne. Więc zobaczysz postęp w ciągu następnego tygodnia.”

Niedawno dyrektor generalny Google trafiał na pierwsze strony gazet, przyznając, że „jeszcze nie w pełni rozumie sztuczną inteligencję” w wywiadzie dla 60 minut CBS News.

Powiedział: „Jest pewien aspekt tego, który wszyscy w terenie nazywamy„ czarną skrzynką ”. Nie do końca rozumiesz i nie możesz powiedzieć, dlaczego to powiedział lub się mylił. Mamy kilka pomysłów a nasza zdolność zrozumienia tego staje się lepsza z czasem. Ale na tym właśnie polega stan techniki ”.

Warto przeczytać!  Najlepszy mini głośnik JBL: 10 najlepszych opcji o kompaktowej konstrukcji i mocnym dźwięku

Kiedy ankieter zapytał Pichai o to, że nie do końca rozumie, jak działa sztuczna inteligencja, ale uwalnia ją od społeczeństwa, dyrektor generalny Google dodał: „Pozwól, że ujmę to w ten sposób. Nie sądzę, żebyśmy też w pełni rozumieli, jak działa ludzki umysł”.


Źródło