Biznes

Była członkini zarządu OpenAI, Helen Toner, ujawnia, dlaczego Sam Altman został zwolniony w szokującym wywiadzie – „o ChatGPT dowiedzieliśmy się z Twittera”

  • 29 maja, 2024
  • 7 min read
Była członkini zarządu OpenAI, Helen Toner, ujawnia, dlaczego Sam Altman został zwolniony w szokującym wywiadzie – „o ChatGPT dowiedzieliśmy się z Twittera”


Jedna z przywódców stojących za krótkim, spektakularnym, ale ostatecznie nieudanym zamachem stanu mającym na celu obalenie Sama Altmana oskarżyła szefową OpenAI o powtarzającą się nieuczciwość w szokującym wywiadzie, w którym wygłosiła pierwsze obszerne uwagi od burzliwych wydarzeń z listopada.

Helen Toner, ekspertka ds. polityki w zakresie sztucznej inteligencji z Georgetown University, zasiadała w zarządzie organizacji non-profit, która kontrolowała OpenAI od 2021 r., aż do rezygnacji pod koniec ubiegłego roku w związku z rolą, jaką odegrała w wyparciu Altmana. Po tym, jak pracownicy zagrozili masowym odejściem, wrócił wzmocniony przez nowy zarząd, a z pierwotnych czterech spiskowców pozostał tylko dyrektor generalny Quora, Adam D’Angelo.

Toner zaprzeczyła spekulacjom, że ona i jej koledzy w zarządzie przestraszyli się postępem technologicznym. Zamiast tego zrzuciła winę za zamach stanu na wyraźny wzór nieuczciwego zachowania Altmana, które stopniowo podważało zaufanie, ponieważ kluczowe decyzje nie były udostępniane z wyprzedzeniem.

„Przez lata Sam bardzo utrudniał zarządowi faktyczne wykonywanie tej pracy, zatajając informacje, przedstawiając fałszywe informacje o tym, co dzieje się w firmie, a w niektórych przypadkach wprost okłamując zarząd” – powiedziała. Pokaz AI TED w uwagach opublikowanych we wtorek.

Według Tonera nawet samo uruchomienie ChatGPT, które wywołało szał generatywnej sztucznej inteligencji po jego debiucie w listopadzie 2022 r., zostało wstrzymane od zarządu. „O ChatGPT dowiedzieliśmy się z Twittera” – powiedziała.

Toner twierdził, że Altman zawsze miał pod ręką dogodną wymówkę, aby bagatelizować obawy zarządu i dlatego przez tak długi czas nie podjęto żadnych działań.

Warto przeczytać!  Nifty 50, Sensex dzisiaj: Czego można się spodziewać po indyjskiej giełdzie akcji w handlu 3 maja

„Sam zawsze potrafił wymyślić jakieś niewinnie brzmiące wyjaśnienie, dlaczego nie była to wielka sprawa, została źle zinterpretowana czy cokolwiek innego” – kontynuowała. „Ale efekt końcowy był taki, że po latach takich sytuacji cała nasza czwórka, która go zwolniła, doszła do wniosku, że po prostu nie możemy wierzyć w to, co mówi nam Sam, a to zupełnie niewykonalne miejsce jako pracownik”. tablica.”

OpenAI nie odpowiedziało na prośbę użytkownika Fortuna za komentarz.

Toner powiedziała, że ​​ostatecznie sprawy osiągnęły punkt kulminacyjny po tym, jak w październiku ubiegłego roku wspólnie opublikowała artykuł, w którym podejście Anthropic do bezpieczeństwa sztucznej inteligencji pojawiło się w lepszym świetle niż OpenAI, co rozwścieczyło Altmana.

„Problem polegał na tym, że po ukazaniu się gazety Sam zaczął okłamywać innych członków zarządu, próbując wypchnąć mnie z zarządu, więc był to kolejny przykład, który naprawdę osłabił naszą zdolność do zaufania mu” – kontynuowała, dodając, że zachowanie to zbiegło się w czasie z dyskusjami, podczas których zarząd „już całkiem poważnie rozmawiał o tym, czy musimy go zwolnić”.

Biorąc pod uwagę te i inne pogardliwe uwagi, które Toner skierował do Altmana, można je bagatelizować i traktować jako kwaśne winogrona ze strony przywódcy nieudanego zamachu stanu. Opisany przez nią wzór nieuczciwości wywodzi się jednak z podobnie szkodliwych oskarżeń ze strony byłego starszego badacza bezpieczeństwa sztucznej inteligencji, Jana Leike, a także Scarlett Johansson.

Próby samoregulacji skazane są na niepowodzenie

Hollywoodzka aktorka powiedziała, że ​​Altman zwrócił się do niej z prośbą o wykorzystanie jej głosu w najnowszym flagowym produkcie — bocie głosowym ChatGPT, z którym użytkownicy mogą rozmawiać, przypominającym fikcyjną postać Johansson graną w filmie Jej. Podejrzewa, że ​​kiedy odmówiła, mógł wmieszać się w część jej głosu, naruszając jej życzenia. Firma kwestionuje jej twierdzenia, ale i tak zgodziła się wstrzymać jego stosowanie.

Leike z kolei był wspólnym szefem zespołu odpowiedzialnego za stworzenie barier ochronnych zapewniających ludzkości kontrolę nad hiperinteligentną sztuczną inteligencją. Odszedł w tym miesiącu, twierdząc, że stało się dla niego jasne, że kierownictwo nie ma zamiaru zgodnie z obietnicą przekierowywać cennych zasobów na rzecz jego zespołu, pozostawiając po sobie zjadliwą naganę skierowaną do byłego pracodawcy. (We wtorek dołączył do tego samego rywala OpenAI, którego Toner pochwalił w październiku, Anthropic.)

Warto przeczytać!  Wiadomości z rynku akcji i akcji, Wiadomości z gospodarki i finansów, Sensex, Nifty, Rynek globalny, NSE, BSE Wiadomości z IPO na żywo

Gdy kluczowi członkowie personelu odpowiedzialnego za bezpieczeństwo sztucznej inteligencji rozproszyli się, OpenAI całkowicie rozwiązało zespół, jednocząc kontrolę w rękach Altmana i jego sojuszników. Czas pokaże, czy osobom odpowiedzialnym za maksymalizację wyników finansowych najlepiej powierzyć wdrażanie barier ochronnych, które mogą okazać się przeszkodą komercyjną.

Chociaż niektórzy pracownicy mieli wątpliwości, niewielu poza Leike zdecydowało się zabrać głos. Z doniesień Vox z początku tego miesiąca wynikało, że kluczowym czynnikiem motywującym to milczenie była niezwykła klauzula o niedyskredytowaniu, której złamanie spowodowałoby utratę kapitału przysługującego pracownikowi w być może najgorętszym startupie na świecie.

Nastąpiło to po wcześniejszych oświadczeniach byłego badacza bezpieczeństwa OpenAI, Daniela Kokotajlo, który dobrowolnie poświęcił swój udział w kapitale, aby nie być związany umową o wyjściu. Altman później potwierdził zasadność roszczeń.

„Chociaż nigdy niczego nie odzyskaliśmy, nigdy nie powinniśmy mieć tego w żadnych dokumentach ani w korespondencji” – napisał na początku tego miesiąca. „To moja wina i to jeden z niewielu przypadków, kiedy naprawdę wstydziłem się, że korzystam z OpenAI; Nie wiedziałem, że coś takiego się dzieje, a powinienem był to zrobić”.

Warto przeczytać!  Portret polskiego inwestora w OBI 2023. Przewaga fundamentalistów nad technikami.

Komentarze Toner pojawiają się tuż po jej artykule w „ Ekonomistaw którym ona i była dyrektor OpenAI Tasha McCauley argumentowały, że jak wykazały dowody, żadnej firmie zajmującej się sztuczną inteligencją nie można ufać, że sama dokona regulacji.

„Gdyby jakakolwiek firma mogła skutecznie zarządzać sobą, jednocześnie bezpiecznie i etycznie rozwijając zaawansowane systemy sztucznej inteligencji, byłaby to OpenAI” – napisali. „Na podstawie naszego doświadczenia uważamy, że samorządność nie jest w stanie rzetelnie przeciwstawić się presji zachęt do zysku”.

Zapisz się do newslettera Eye on AI, aby być na bieżąco z tym, jak sztuczna inteligencja kształtuje przyszłość biznesu. Zarejestruj się za darmo.




Źródło