Technologia

Firmy AI mogą być innowacyjne i odpowiedzialne: Markham Erickson, dyrektor Google | Najnowsze wiadomości Indie

  • 7 grudnia, 2023
  • 8 min read
Firmy AI mogą być innowacyjne i odpowiedzialne: Markham Erickson, dyrektor Google |  Najnowsze wiadomości Indie


Regulowanie sztucznej inteligencji (AI) nie musi być binarnym wyborem między samoregulacją firm a rygorystycznymi barierami prawnymi zalecanymi przez rządy, a firmy AI mogą być innowacyjne, zachowując się odpowiedzialnie, powiedział w środę czołowy dyrektor Google. W wywiadzie dla HT Markham Erickson, wiceprezes ds. spraw rządowych i porządku publicznego w Centrach Doskonałości Google podzielił się wnioskami firmy i podejściem do zapewniania bezpieczeństwa sztucznej inteligencji, w tym podjętymi wysiłkami mającymi na celu pomóc w rozróżnieniu pomiędzy syntetycznym, wygenerowanym komputerowo tekstem a mediami, i te stworzone przez człowieka. Zredagowane fragmenty:

Markhama Ericksona

Podejścia do regulacji technologii są zróżnicowane – z jednej strony dobrowolne mechanizmy, z drugiej – zakodowane na stałe zabezpieczenia prawne. Jeśli chodzi o sztuczną inteligencję, który model sprawdzi się najlepiej?

Bądź na bieżąco z najświeższymi wiadomościami na kanale HT na Facebooku. Dołącz teraz

Myślę, że to jedno i drugie. To nie będzie binarne. Będzie widmo. A ja myślę, że to zależy od problemu. Powinno ono opierać się na ryzyku i być proporcjonalne, gdy zastanawiamy się, jaka powinna być struktura zarządzania dowolną częścią ekosystemu sztucznej inteligencji. Myślę, że panuje zrozumienie, że prawdopodobnie jest to połączenie samoregulacji, kodeksów samoregulacji, dobrowolnych kodeksów postępowania, interoperacyjnych standardów technologicznych, a następnie twardych regulacji. Cztery i pół roku temu nasz dyrektor generalny, Sundar Pichai, ogłosił, że jesteśmy firmą, która jako pierwsza wykorzystuje sztuczną inteligencję. Następnie powiedział również, że sztuczna inteligencja jest zbyt ważna, aby nie podlegać regulacjom i nie należy jej dobrze regulować. Należy w dalszym ciągu zachęcać do innowacji. Nauczyliśmy się, że można być innowacyjnym i jednocześnie odpowiedzialnym.

Muszą istnieć zasady zapewniające ich bezpieczeństwo, i to oparte na ryzyku, w układzie proporcjonalnym. Chciałbym więc powiedzieć, że jeśli masz smartfona, to masz AI w kieszeni. Tam codziennie korzystamy z aplikacji AI — niezależnie od tego, czy jest to Gmail, który zaleca odpowiedź na e-mail, czy nasz produkt mapowy, który sugeruje najbardziej przyjazną dla środowiska trasę. Prawdopodobnie nie potrzebujemy w tym zakresie skomplikowanej struktury regulacyjnej. Są jednak rzeczy obarczone wysokim ryzykiem, które mają wpływ na przykład na zdrowie i bezpieczeństwo.

Warto przeczytać!  Jak skontaktować się z centrum pomocy Free Fire w celu odblokowania identyfikatora

Jednym z wyzwań jest to, jak zacząć regulować sztuczną inteligencję, zwłaszcza najbardziej zaawansowaną lub, jak nazywa się, pionierskie modele sztucznej inteligencji. Sztuczna inteligencja i LLM (modele wielkojęzykowe) często znajdują się w zastrzeżonej czarnej skrzynce. W jaki sposób zapewnić decydentom, organom regulacyjnym i niezależnym badaczom wgląd w działanie tych systemów i wyzwania, jakie stwarzają?

Globalna dyskusja na ten temat dodaje mi otuchy – kilka tygodni temu Wielka Brytania zorganizowała szczyt dotyczący bezpieczeństwa sztucznej inteligencji i głównym tematem rozmów była właśnie ta kwestia, czyli to, w jaki sposób zapewnić, że rządy będą świadome możliwości wysoce wydajnych jednostek granicznych model AI i że są w stanie zdawać sobie sprawę z tych możliwości, a następnie zapewnić swoim obywatelom ochronę przed negatywnymi skutkami zewnętrznymi? I zagłębiliśmy się w te rozmowy. Na początku tego lata utworzyliśmy Forum Modeli Frontier, w skład którego wchodzą duże, duże firmy zajmujące się modelami językowymi — Anthropic, Google DeepMind, Google, OpenAI i inne. Celem jest stworzenie miejsca, w którym firmy, technolodzy, naukowcy i rządy będą mogli porozmawiać na ten temat. Myślę, że panuje powszechna zgoda co do tego, że powinniśmy chronić własność intelektualną, chronić obywateli i zapewniać rządom świadomość i widoczność – to nie wyklucza się wzajemnie.

Czy możesz nam opowiedzieć trochę o tym, jak mogą wyglądać niektóre podejścia do regulacji? Jednym z modeli, który omawiałeś wcześniej, było podejście typu hub-and-spoke.

Myślę, że OECD była pierwszą organizacją, która zaproponowała podejście typu hub-and-spoke do regulowania sztucznej inteligencji. Uważamy, że to dobre ramy, ponieważ skutecznie zapewniają rządowi centralną wiedzę specjalistyczną w zakresie sztucznej inteligencji, zamiast próbować powielać tę wiedzę w każdej agencji. Zatem centralny węzeł może być pomocny dla różnych rządowych organów regulacyjnych. Z drugiej strony teleskopu rząd – ten zespół centralny nie musi posiadać wiedzy specjalistycznej w zakresie opieki zdrowotnej czy bezpieczeństwa transportu; te agencje eksperckie będą nadal dysponować swoją wiedzą specjalistyczną. Jest to zatem sposób na maksymalne wykorzystanie możliwości rządu bez powodowania redundancji i nieefektywności.

Warto przeczytać!  Jak zdobyć Remote Raid Pass w Pokemon GO (luty 2023)

Modele graniczne są zwykle modelami najbardziej zaawansowanymi i potencjalnie najbardziej niebezpiecznymi pod względem szkód społecznych w postaci dyskryminacji. Czy zatem pojawia się zachęta dla firm, aby tak naprawdę nie mówiły, że ich zaawansowany model jest w rzeczywistości modelem pionierskim, ponieważ może to wiązać się z większymi regulacjami?

Jest wcześnie i nie widziałem tego przynajmniej w firmach LLM. Myślę, że panuje zgoda co do bardzo konstruktywnej współpracy z rządami. Myślę, że w tym miejscu będzie pewna świadomość możliwości modeli pionierskich i musimy mieć obowiązujące definicje. Jeszcze tego nie widziałem, ale to wciąż początek.

Jedna z dyskusji toczących się w Indiach na temat regulacji dotyczących sztucznej inteligencji dotyczy kwestii odpowiedzialności i podziału odpowiedzialności. Jak rozłożyć odpowiedzialność za to, czym jest model lub aplikacja AI?

Myślę, że panujący tutaj konsensus jest taki, że podmioty, które najlepiej potrafią kontrolować wykorzystanie dowolnej konkretnej aplikacji AI, powinny co do zasady odpowiadać za korzystanie z tej aplikacji. Powstaną podstawowe interfejsy API i będzie wiele firm posiadających własne aplikacje za pośrednictwem tego interfejsu API. Dlatego chcemy być odpowiedzialni za to, że nasze produkty i usługi, takie jak Bard, mogą być niedokładne, powodować halucynacje. I chcemy informacji zwrotnej, kiedy to nastąpi. A potem chcemy to złagodzić. Dlatego przykłady, w których ludzie zwracają uwagę na problemy z LLM, są dla nas pomocne, abyśmy mogli je ulepszyć.

Jestem też całkiem pewien, że jeśli ktoś [a user] zrobił coś szkodliwego, jednak rząd to zrobił, rząd i tak będzie chciał pociągnąć tę osobę do odpowiedzialności za to, co robi.

Warto przeczytać!  Adobe pracuje nad oferowaniem narzędzi GenAI z OpenAI i innych

Jeśli chodzi o politykę dotyczącą sztucznej inteligencji, YouTube ogłosił na przykład, że wszelkie syntetyczne obrazy utworzone przy użyciu sztucznej inteligencji muszą zostać ujawnione. Jak skuteczne według Ciebie jest przestrzeganie zasad opartych na ujawnianiu informacji przez twórców i reklamodawców?

Gwiazda północna ma tutaj zapewnić przejrzystość i świadomość. Dlatego chcemy, aby ludzie wiedzieli, że coś, co zostało stworzone, jest syntetyczne. Wewnętrznie zbudowaliśmy narzędzia, aby użytkownicy korzystający z naszych narzędzi do tworzenia treści syntetycznych mogli opatrzyć je znakiem wodnym. Taką technologię można wykorzystać nie tylko w przypadku filmów, ale także mowy. Prowadzimy rozmowy międzybranżowe, aby zapewnić interoperacyjność, tak aby inne firmy, które również świadczą usługi [AI] narzędzia i ekran zawartości [for synthetic media]. A jeśli użytkownicy natkną się na to w naszym systemie, będą mogli mieć taki sam rodzaj świadomości [that it is synthetic media]. Zatem będzie pewna interoperacyjność. Następnie trzeba będzie podjąć wysiłki, aby podmioty, które nie chcą uczestniczyć w tego rodzaju udostępnianiu, mogły zidentyfikować treści utworzone syntetycznie. A ta technologia się rozwija i będzie musiała się dalej rozwijać.

Jakie inne firmy biorą udział w tej współpracy międzybranżowej?

W dyskusję zaangażowanych jest wiele firm i istnieje kilka forów. Kiedy zaczęliśmy tu pracować, skontaktowaliśmy się z innymi firmami, aby rozpocząć rozmowę na temat interoperacyjności, a wiele firm stwierdziło, że nie jesteśmy jeszcze gotowi na rozmowę, ponieważ nie jesteśmy wystarczająco daleko razem z naszą pracą. Jednak wiele z tych samych firm osiągnęło już taki poziom, że przyłączają się do tego rodzaju rozmów branżowych.


Źródło