Pracownicy Google, którzy pomogli przetestować Bard, ostrzegli, że jego rady mogą spowodować poważne obrażenia, nazywając je bezużytecznymi
Przez Divyanshi Sharmę: Od samego początku chatbot Google Bard ze sztuczną inteligencją nie był tak naprawdę ulubieńcem swoich pracowników. W lutym, kiedy Bard właśnie został uruchomiony, pojawiły się doniesienia, że pracownicy nie byli zadowoleni ze sposobu, w jaki ogłoszenie zostało potraktowane i nazwali je „pośpiesznym, nieudanym i nie-Google”. Następnie firma zwróciła się do swoich pracowników o pomoc w naprawieniu błędów Barda, ogłaszając zachęty dla pracowników, którzy zgodzili się to zrobić. Dyrektor generalny Sundar Pichai ujawnił, że ponad 80 000 pracowników pomogło wewnętrznie przetestować Bard, a nawet podziękowało im za pośrednictwem poczty elektronicznej. Jednak, zgodnie z niedawnym raportem Bloomberga, niektórzy pracownicy Google, którzy testowali Barda, nie byli zbyt zadowoleni z chatbota AI i nazwali go „bezużytecznym” i „patologicznym kłamcą”. Pracownik ostrzegł również, że porady Barda w niektórych przypadkach mogą prowadzić do „śmierci lub obrażeń”.
Pracownicy Google ostrzegają przed Bardem
Raport Bloomberg stwierdza, że publikacja zapoznała się z wewnętrznym dokumentem, zgodnie z którym 18 obecnych i byłych pracowników Google stwierdziło, że Bard podawał informacje niskiej jakości „w wyścigu, aby nadążyć za konkurencją”, przy czym „mniej priorytetowo traktował swoje zobowiązania etyczne” ’.
Jeden z pracowników Google nazwał Barda „patologicznym kłamcą”, ujawniają zrzuty ekranu z wewnętrznej dyskusji, do których dotarł Bloomberg. Inny pracownik powiedział, że to „warto zawstydzić”. To nie wszystko, gdy pracownik poprosił Barda o sugestie dotyczące lądowania samolotu, dał radę, która doprowadziłaby do katastrofy. Inny pracownik napisał, że odpowiedzi Barda dotyczące nurkowania z akwalungiem prawdopodobnie skutkowałyby „obrażeniem lub śmiercią”.
Raport Bloomberga dodaje, że pracownikom odpowiedzialnym za dbanie o bezpieczeństwo i implikacje etyczne nowych produktów powiedziano, aby „nie przeszkadzali ani nie próbowali zabijać żadnego z generatywnych narzędzi sztucznej inteligencji w fazie rozwoju”.
Kiedy Bloomberg skontaktował się z Google z kilkoma pytaniami, gigant technologiczny powiedział, że priorytetowo traktuje odpowiedzialną sztuczną inteligencję.
Brian Gabriel, rzecznik Google, powiedział publikacji: „Nadal inwestujemy w zespoły, które pracują nad zastosowaniem naszych zasad sztucznej inteligencji w naszej technologii”.
Kiedy Sundar Pichai obiecał lepszy występ od Barda
W styczniu tego roku raporty sugerowały, że Google traci sen z powodu „ChatGPT”, co doprowadziło do „czerwonej” sytuacji w biurach Google. W następnym miesiącu Google w dość chaotyczny sposób wdrożył chatbota AI Bard. Bard popełnił błąd rzeczowy w swoim ogłoszeniu wprowadzającym, na co zwrócił uwagę Reuters. Następnie, podczas konferencji prasowej w Paryżu, wpadka wprawiła Google w zakłopotanie, gdy zaginął telefon demonstracyjny. Doprowadziło to do światowej krytyki, a ludzie uważali, że całe ogłoszenie było raczej pośpieszne.
W wywiadzie dla The New York Times na początku tego miesiąca Sundar Pichai powiedział, że nie przypomina sobie wydania „sytuacji z czerwonym kodem”, dodając, że być może byli inni w firmie, którzy „wysłali e-maile z informacją, że istnieje kod czerwony”.
Mówiąc, że firma ma bardziej wydajne modele, Pichai dodał: „Całkiem niedługo, być może tak [podcast] zostanie uruchomiona, będziemy aktualizować Barda do niektórych z naszych bardziej wydajnych modeli PaLM, które zapewnią więcej możliwości; czy to w rozumowaniu, kodowaniu, może lepiej odpowiadać na pytania matematyczne. Więc zobaczysz postęp w ciągu następnego tygodnia.”
Niedawno dyrektor generalny Google trafiał na pierwsze strony gazet, przyznając, że „jeszcze nie w pełni rozumie sztuczną inteligencję” w wywiadzie dla 60 minut CBS News.
Powiedział: „Jest pewien aspekt tego, który wszyscy w terenie nazywamy„ czarną skrzynką ”. Nie do końca rozumiesz i nie możesz powiedzieć, dlaczego to powiedział lub się mylił. Mamy kilka pomysłów a nasza zdolność zrozumienia tego staje się lepsza z czasem. Ale na tym właśnie polega stan techniki ”.
Kiedy ankieter zapytał Pichai o to, że nie do końca rozumie, jak działa sztuczna inteligencja, ale uwalnia ją od społeczeństwa, dyrektor generalny Google dodał: „Pozwól, że ujmę to w ten sposób. Nie sądzę, żebyśmy też w pełni rozumieli, jak działa ludzki umysł”.
— KOŃCZY SIĘ —