Biznes

W tym tygodniu w AI: OpenAI odchodzi od bezpieczeństwa

  • 18 maja, 2024
  • 8 min read
W tym tygodniu w AI: OpenAI odchodzi od bezpieczeństwa


Nadążanie za branżą tak szybko zmieniającą się jak sztuczna inteligencja to nie lada wyzwanie. Dopóki sztuczna inteligencja nie zrobi tego za Ciebie, oto przydatne podsumowanie najnowszych historii ze świata uczenia maszynowego wraz z godnymi uwagi badaniami i eksperymentami, których nie omówiliśmy osobno.

Nawiasem mówiąc, TechCrunch planuje wkrótce wypuścić biuletyn AI. Czekać na dalsze informacje. W międzyczasie zwiększamy częstotliwość naszej półregularnej kolumny poświęconej sztucznej inteligencji, która poprzednio odbywała się dwa razy w miesiącu (mniej więcej), na cotygodniową — wypatrujcie więc kolejnych wydań.

W tym tygodniu w dziedzinie sztucznej inteligencji OpenAI po raz kolejny zdominowało cykl informacyjny (pomimo najlepszych wysiłków Google) wraz z wprowadzeniem produktu na rynek, ale także pewną intrygą pałacową. Firma zaprezentowała GPT-4o, swój najpotężniejszy jak dotąd model generacyjny, a zaledwie kilka dni później skutecznie rozwiązała zespół pracujący nad problemem opracowania elementów sterujących zapobiegających nieuczciwemu działaniu „superinteligentnych” systemów sztucznej inteligencji.

Jak można się było spodziewać, informacje o rozwiązaniu zespołu trafiły na pierwsze strony gazet. Z raportów — w tym naszych — wynika, że ​​OpenAI nadało priorytet badaniom zespołu nad bezpieczeństwem na rzecz wprowadzenia na rynek nowych produktów, takich jak wspomniany GPT-4o, co ostatecznie doprowadziło do rezygnacji dwóch współprowadzących zespół, Jana Leike i współzałożyciela OpenAI Ilyi Sutskevera.

Superinteligentna sztuczna inteligencja jest w tym momencie bardziej teoretyczna niż rzeczywista; nie jest jasne, kiedy – i czy – przemysł technologiczny dokona przełomów niezbędnych do stworzenia sztucznej inteligencji zdolnej do wykonania dowolnego zadania, jakie może wykonać człowiek. Jednak relacje z tego tygodnia zdają się potwierdzać jedną rzecz: że kierownictwo OpenAI — w szczególności dyrektor generalny Sam Altman — coraz częściej przedkłada produkty nad zabezpieczenia.

Według doniesień Altman „doprowadził do wściekłości” Sutskevera, przyspieszając wprowadzenie funkcji opartych na sztucznej inteligencji na pierwszej konferencji deweloperów OpenAI w listopadzie ubiegłego roku. Mówi się też, że krytycznie odnosił się do Helen Toner, dyrektor Centrum Bezpieczeństwa i Wschodzących Technologii w Georgetown oraz byłego członka zarządu OpenAI, w związku z artykułem, którego jest współautorką, który rzuca podejście OpenAI do bezpieczeństwa w krytycznym świetle – do tego stopnia, że próbował zepchnąć ją z deski.

Warto przeczytać!  Przebudowa typowej polskiej kostki z lat 70. Zobacz zdjęcia przed i po modernizacji domu

Mniej więcej przez ostatni rok OpenAI pozwoliło, aby sklep chatbotów zapełnił się spamem i (rzekomo) pobierał dane z YouTube niezgodnie z warunkami korzystania z platformy, wyrażając jednocześnie chęć umożliwienia swojej sztucznej inteligencji generowania obrazów porno i brutalności. Z pewnością wydaje się, że bezpieczeństwo w firmie zeszło na drugi plan — a coraz większa liczba badaczy bezpieczeństwa OpenAI doszła do wniosku, że ich praca byłaby lepiej wspierana gdzie indziej.

Oto kilka innych godnych uwagi historii dotyczących sztucznej inteligencji z ostatnich kilku dni:

  • OpenAI + Reddit: W kolejnych aktualnościach dotyczących OpenAI firma osiągnęła porozumienie z Redditem w sprawie wykorzystania danych z serwisu społecznościowego do szkolenia modeli AI. Wall Street przyjęła tę transakcję z otwartymi ramionami, ale użytkownicy Reddita mogą nie być tak zadowoleni.
  • Sztuczna inteligencja Google: W tym tygodniu Google był gospodarzem corocznej konferencji programistów I/O, podczas której zadebiutował tonę produktów AI. Zestawiliśmy je tutaj, od narzędzia Veo generującego wideo, przez wyniki zorganizowane przez sztuczną inteligencję w wyszukiwarce Google, po aktualizacje aplikacji chatbota Google Gemini.
  • Anthropic zatrudnia Kriegera: Mike Krieger, jeden ze współzałożycieli Instagrama, a ostatnio współzałożyciel spersonalizowanej aplikacji informacyjnej Artifact (którą niedawno nabył Yahoo, spółka-matka TechCrunch), dołącza do Anthropic jako pierwszy dyrektor ds. produktu firmy. Będzie nadzorował działania firmy zarówno na rzecz konsumentów, jak i przedsiębiorstw.
  • Sztuczna inteligencja dla dzieci: W zeszłym tygodniu firma Anthropic ogłosiła, że ​​zacznie umożliwiać programistom tworzenie aplikacji i narzędzi dla dzieci zbudowanych w oparciu o modele sztucznej inteligencji – pod warunkiem, że będą przestrzegać określonych zasad. Warto zauważyć, że konkurenci tacy jak Google nie pozwalają na wbudowanie swojej sztucznej inteligencji w aplikacje skierowane do młodszych grup wiekowych.
  • Festiwal filmowy AI: Startup AI Runway zorganizował na początku tego miesiąca drugi w historii festiwal filmów o sztucznej inteligencji. Jedzenie na wynos? Niektóre z najmocniejszych momentów w prezentacji nie pochodziły od sztucznej inteligencji, ale z bardziej ludzkich elementów.
Warto przeczytać!  Przewodnik po handlu dziennym dla dzisiejszej giełdy: Sześć akcji do kupienia lub sprzedania dzisiaj w obliczu wojny irańsko-izraelskiej

Więcej uczenia maszynowego

Bezpieczeństwo sztucznej inteligencji jest oczywiście najważniejsze w tym tygodniu wraz z odejściem OpenAI, ale Google Deepmind kontynuuje prace nad nowymi „ramami bezpieczeństwa granicznego”. Zasadniczo jest to strategia organizacji polegająca na identyfikowaniu i, miejmy nadzieję, zapobieganiu wszelkim niekontrolowanym możliwościom — nie musi to być AGI, może to być szalony generator złośliwego oprogramowania lub tym podobne.

Kredyty obrazkowe: Głęboki Umysł Google

Struktura składa się z trzech etapów: 1. Zidentyfikuj potencjalnie szkodliwe możliwości w modelu poprzez symulację jego ścieżek rozwoju. 2. Regularnie oceniaj modele, aby wykryć, kiedy osiągnęły znane „krytyczne poziomy możliwości”. 3. Zastosuj plan łagodzący, aby zapobiec eksfiltracji (przez inną osobę lub przez nią samą) lub problematycznemu wdrożeniu. Tutaj jest więcej szczegółów. Może to brzmieć jak oczywista seria działań, ale ważne jest, aby je sformalizować, w przeciwnym razie wszyscy będą po prostu to ignorować. W ten sposób otrzymujesz złą sztuczną inteligencję.

Badacze z Cambridge zidentyfikowali raczej inne ryzyko, którzy słusznie niepokoją się rozprzestrzenianiem się chatbotów, które szkoli się na danych zmarłej osoby, aby stworzyć powierzchowną symulację tej osoby. Całą tę koncepcję możesz (tak jak ja) uznać za nieco odrażającą, ale jeśli zachowamy ostrożność, można ją zastosować w radzeniu sobie z żałobą i w innych sytuacjach. Problem w tym, że nie jesteśmy ostrożni.

Kredyty obrazkowe: Uniwersytet Cambridge / T. Hollanek

„Ten obszar sztucznej inteligencji to etyczne pole minowe” – stwierdziła główna badaczka Katarzyna Nowaczyk-Basińska. „Musimy zacząć myśleć już teraz o tym, jak złagodzić społeczne i psychologiczne ryzyko związane z cyfrową nieśmiertelnością, ponieważ technologia już tu jest”. Zespół identyfikuje liczne oszustwa, potencjalne złe i dobre skutki oraz ogólnie omawia tę koncepcję (w tym fałszywe usługi) w artykule opublikowanym w czasopiśmie Philosophy & Technology. Black Mirror po raz kolejny przepowiada przyszłość!

Warto przeczytać!  Zwolnienia Bella: Gigant telekomunikacyjny zwalnia setki pracowników podczas 10-minutowych rozmów wideo, związki zawodowe określają to jako „obrzydliwe”

W mniej przerażających zastosowaniach sztucznej inteligencji fizycy z MIT szukają przydatnego (dla nich) narzędzia do przewidywania fazy lub stanu układu fizycznego, co zwykle jest zadaniem statystycznym, które może stać się uciążliwe w przypadku bardziej złożonych systemów. Jeśli jednak wytrenujesz model uczenia maszynowego na właściwych danych i oprzesz go na pewnych znanych istotnych cechach systemu, uzyskasz znacznie skuteczniejszy sposób, aby to osiągnąć. To kolejny przykład tego, jak ML znajduje nisze nawet w zaawansowanej nauce.

W CU Boulder rozmawiają o tym, jak można wykorzystać sztuczną inteligencję w zarządzaniu katastrofami. Technologia ta może być przydatna do szybkiego przewidywania, gdzie potrzebne będą zasoby, mapowania uszkodzeń, a nawet pomagania w szkoleniu ratowników, ale ludzie (co zrozumiałe) wahają się przed zastosowaniem jej w scenariuszach życia i śmierci.

Uczestnicy warsztatów.
Kredyty obrazkowe: CU Boulder

Profesor Amir Behzadan stara się popchnąć tę kwestię do przodu, mówiąc: „Sztuczna inteligencja skoncentrowana na człowieku prowadzi do skuteczniejszych praktyk reagowania na katastrofy i odzyskiwania danych poprzez promowanie współpracy, zrozumienia i włączenia między członkami zespołu, ocalałymi i zainteresowanymi stronami”. Są jeszcze na etapie warsztatów, ale ważne jest, aby głęboko się nad tym zastanowić, zanim spróbujemy na przykład zautomatyzować dystrybucję pomocy po huraganie.

Na koniec kilka interesujących prac Disney Research, które dotyczyły dywersyfikacji wyników modeli generowania obrazu dyfuzyjnego, które mogą dawać w kółko podobne wyniki w przypadku niektórych podpowiedzi. Ich rozwiązanie? „Nasza strategia próbkowania łączy sygnał kondycjonujący poprzez dodanie zaplanowanego, monotonicznie malejącego szumu Gaussa do wektora kondycjonującego podczas wnioskowania, aby zrównoważyć różnorodność i wyrównanie warunków”. Po prostu sam nie mógłbym tego lepiej ująć.

Kredyty obrazkowe: Badania Disneya

Rezultatem jest znacznie większa różnorodność kątów, ustawień i ogólnego wyglądu wyjściowych obrazów. Czasem tego chcesz, czasem nie, ale miło jest mieć taką możliwość.


Źródło