Technologia

Czy można być emocjonalnie zależnym od głosu AI? OpenAI mówi, że tak

  • 10 sierpnia, 2024
  • 4 min read
Czy można być emocjonalnie zależnym od głosu AI? OpenAI mówi, że tak


„Na przykład obejmuje to język wyrażający wspólne więzi, takie jak 'To nasz ostatni dzień razem’”, zgodnie z raportem. „Chociaż te przypadki wydają się łagodne, sygnalizują potrzebę dalszych badań nad tym, jak te efekty mogą się objawiać w dłuższych okresach czasu”.

Funkcja głosowa została ogłoszona tej wiosny jako część najnowszego modelu aplikacji ChatGPT, znanego jako GPT-4o. Nowa wersja ChatGPT została zaprezentowana w maju, a funkcja głosowa została udostępniona płatnym użytkownikom w zeszłym tygodniu. Oczekuje się, że zostanie udostępniona wszystkim użytkownikom jesienią.

W raporcie szczegółowo opisano możliwości, ograniczenia i oceny bezpieczeństwa modelu, w tym zdolność do reagowania na sygnały audio w ciągu około 232 milisekund, przy średniej wynoszącej 320 milisekund, co według firmy jest podobne do czasu reakcji człowieka na rozmowę.

Według raportu ryzyko antropomorfizacji, czyli przypisywania ludzkim zachowaniom i cechom bytów nieludzkich, takich jak modele sztucznej inteligencji, jest zwiększone przez możliwości audio GPT-4o, które pozwalają na naturalną rozmowę z modelem.

Stwierdzono również, że funkcja głosu przypominającego głos człowieka może zmniejszyć potrzebę interakcji z innymi ludźmi, co może być zaletą dla osób doświadczających samotności, ale może niekorzystnie wpłynąć na „zdrowe relacje”.

Warto przeczytać!  Ogłoszono datę premiery CMF Phone 1 w Indiach. Nic nie mówi, że nadejdą jeszcze 2 produkty

Blase Ur, profesor informatyki na University of Chicago, który bada interakcje człowiek-komputer, powiedział, że po przeczytaniu raportu stało się jasne, że OpenAI znalazło powody, aby czuć się komfortowo z tym, co robi, ale znalazło również powody do obaw. Dlatego nie jest pewien, czy obecne testy są „wystarczające”, powiedział.

„Kiedy myślisz o takich rzeczach jak bezpieczeństwo samochodów i samolotów, istnieje ogromna, ogromna, ogromna ilość testów i zewnętrznej walidacji i zewnętrznych standardów, co do których my jako społeczeństwo i jako grupa ekspertów, zgadzamy się” – powiedział Ur w wywiadzie telefonicznym w piątek. „I pod wieloma względami OpenAI spieszy się z wdrażaniem tych fajnych rzeczy, ponieważ w tym momencie jesteśmy w wyścigu zbrojeń AI”.

(W grudniu „New York Times” pozwał firmę OpenAI i jej partnera, firmę Microsoft, twierdząc, że doszło do naruszenia praw autorskich do treści wiadomości związanych z systemami sztucznej inteligencji.)

Poza OpenAI firmy takie jak Apple i Google szybko pracują nad rozwojem własnej sztucznej inteligencji. Ur powiedział, że wydaje się, że obecne podejście do monitorowania zachowań modeli polega na zwracaniu uwagi na obawy podczas korzystania z modelu, zamiast projektowania go z myślą o bezpieczeństwie.

Warto przeczytać!  Chatbot w Twojej przeglądarce jest tutaj: użyj Gemini AI w przeglądarce Chrome, wykonując te czynności

„W takim stopniu, w jakim żyjemy w społeczeństwie postpandemicznym, myślę, że wiele osób jest emocjonalnie kruchych” – powiedział Ur, odnosząc się do przypadków manipulacji emocjonalnej z udziałem funkcji głosowych AI. „Teraz, gdy mamy tego agenta, który w wielu aspektach może igrać z naszymi emocjami — nie jest świadomym agentem, nie wie, co robi — możemy znaleźć się w takich sytuacjach”.

To nie pierwszy raz, kiedy funkcja głosowa OpenAI znalazła się w wiadomościach. Niedługo po ogłoszeniu produktu w maju pojawiły się obawy, że funkcja ta może być zbyt realistyczna w dość specyficzny sposób. Aktorka Scarlett Johansson, która użyczyła głosu technologii AI w „Her”, powiedziała, że ​​OpenAI użyło głosu, który brzmiał „niepokojąco podobnie” do jej własnego, pomimo odmowy udzielenia licencji na jej głos. Następnie zatrudniła prawnika i nalegała, aby OpenAI przestało używać głosu, który nazywało „Sky”, co doprowadziło firmę do zawieszenia jego wydania.

W filmie „Her” główny bohater grany przez aktora Joaquina Phoenixa zakochuje się w oprogramowaniu AI, któremu głosu użyczyła Johansson, a później jest załamany, gdy odkrywa, że ​​AI ma również relacje z innymi użytkownikami.

Warto przeczytać!  Apple rozpocznie produkcję własnych ekranów w 2024 r., odchodząc od Samsunga

Wydaje się, że raport OpenAI jest skrajnym przykładem tego, jak życie naśladuje sztukę. Firma otwarcie przyznaje, że istnieją zagrożenia, które mogą mieć wpływ na ludzi w realnym świecie.

Firma stwierdziła, że ​​dodatkowe badania „bardziej zróżnicowanych populacji użytkowników, o bardziej zróżnicowanych potrzebach i pragnieniach wynikających z modelu”, a także „niezależne badania naukowe i wewnętrzne” pomogą jej dokładniej określić potencjalne zagrożenia.

Dodano: „Zamierzamy dalej badać potencjał zależności emocjonalnej i sposoby, w jakie głębsza integracja wielu funkcji naszego modelu i systemów z modalnością audio może wpływać na zachowania”.


Źródło