Technologia

Nie, nie testowałem nowego chatbota Bing AI w zeszłym tygodniu. Oto dlaczego | Bicie AI

  • 20 lutego, 2023
  • 5 min read
Nie, nie testowałem nowego chatbota Bing AI w zeszłym tygodniu.  Oto dlaczego |  Bicie AI


Sprawdź wszystkie sesje na żądanie z Intelligent Security Summit tutaj.


Nie jestem tylko kolejnym dziennikarzem piszącym felieton o tym, jak spędziłem ostatni tydzień, wypróbowując chatbota AI firmy Microsoft Bing. Nie naprawdę.

Nie jestem kolejnym reporterem opowiadającym światu, jak Sydney, wewnętrzna nazwa kodowa trybu czatu AI Binga, sprawiła, że ​​poczułem wszystkie uczucia, aż całkowicie mnie to przeraziło i zdałem sobie sprawę, że może nie potrzebuję pomocy w przeszukiwaniu sieci, jeśli moja nowy przyjazny drugi pilot zwróci się przeciwko mnie i zagrozi mi zniszczeniem i diabelskim emotikonem.



Nie, nie testowałem nowego Binga. Mój mąż zrobił. Zapytał chatbota, czy Bóg stworzył Microsoft; czy pamięta, że ​​jest winien mojemu mężowi pięć dolarów; i wady Starlink (na co nagle odpowiedział: „Dzięki za tę rozmowę! Osiągnąłem swój limit, czy możesz nacisnąć „Nowy temat”, proszę?”). Świetnie się bawił.

Od pełnych podziwu reakcji i epickiego załamania po ograniczenia chatbota AI

Ale szczerze mówiąc, nie miałem ochoty jeździć na czymś, co okazało się przewidywalną falą wiadomości o sztucznej inteligencji, która była być może nawet szybsza niż zwykle.

Tydzień temu Microsoft ogłosił, że milion osób zostało dodanych do listy oczekujących na nowy Bing oparty na sztucznej inteligencji.

W środę wielu z tych, którzy byli zachwyceni debiutem chatbota AI firmy Microsoft w poprzednim tygodniu (co obejmowało deklarację Satyi Nadelli, że „Wyścig zaczyna się dzisiaj” w wyszukiwaniu), było mniej pod wrażeniem epickich krachów w Sydney — w tym Kevina Roose’a z New York Timesa , który napisał, że był „głęboko zaniepokojony” długą rozmową z chatbotem Bing AI, która doprowadziła do „wyznania mu miłości”.

Do piątku Microsoft opanował Sydney, ograniczając czat Bing do pięciu odpowiedzi, aby „powstrzymać sztuczną inteligencję przed robieniem się naprawdę dziwnym”.

Westchnienie.

„Kto jest dobrym Bingiem?”

Zamiast tego spędziłem część zeszłego tygodnia oddając się głębokim przemyśleniom (i tweetom) na temat mojej własnej odpowiedzi na czaty Bing AI opublikowane przez innych.

Na przykład w odpowiedzi na artykuł w Washington Post, w którym twierdzono, że bot Bing powiedział swojemu reporterowi, że może „czuć i myśleć różne rzeczy”, Melanie Mitchell, profesor w Instytucie Santa Fe i autorka Sztuczna inteligencja: przewodnik dla myślących ludzi, tweetował że „ten dyskurs staje się coraz głupszy… Dziennikarze: proszę, przestańcie antropomorfizować te systemy!”

Doprowadziło mnie to do ćwierkać: „Ciągle myślę o tym, jakie to trudne nie antropomorfizować. Narzędzie ma nazwę (Sydney), używa emotikonów do zakończenia każdej odpowiedzi i odnosi się do siebie w pierwszej osobie. Robimy to samo z Alexą/Siri i robię to również z ptakami, psami i kotami. Czy to ludzka domyślność?

Warto przeczytać!  AI Tracker: OpenAI udostępnia użytkownikom Plus funkcję pamięci ChatGPT

Ponadto dodałem, że proszenie ludzi, aby trzymali się z daleka od antropomorfizacji sztucznej inteligencji, wydawało się podobne do proszenia ludzi, aby nie pytali Fido „Kto jest dobrym chłopcem?”

Mitchell odesłał mnie do artykułu w Wikipedii na temat efektu ELIZA, nazwanego na cześć chatbota ELIZA z 1966 r., który okazał się skuteczny w wywoływaniu reakcji emocjonalnych użytkowników i został zdefiniowany jako tendencja do antropomorfizacji sztucznej inteligencji.

Czy ludzie są zaprogramowani na efekt Elizy?

Ale ponieważ efekt Elizy jest znany i rzeczywisty, czy nie powinniśmy założyć, że ludzie mogą być do niego zaprogramowani, zwłaszcza jeśli te narzędzia mają go wspierać?

Spójrz, większość z nas to nie Blake Lemoine, deklarujący wrażliwość naszych ulubionych chatbotów. Potrafię krytycznie myśleć o tych systemach i wiem, co jest prawdziwe, a co nie. Jednak nawet ja natychmiast żartowałam z mężem, mówiąc: „Biedny Bing! To takie smutne, że cię nie pamięta!” Wiedziałem, że to szaleństwo, ale nie mogłem się powstrzymać. Wiedziałem też, że przypisywanie płci botowi było głupie, ale hej, Amazon od samego początku przypisał Alexie głos płciowy.

Warto przeczytać!  Apple nie będzie już uwzględniać iPhone'a SE 4 w planach nowego produktu na lata 2024-25

Może jako reporter muszę się bardziej postarać – jasne. Zastanawiam się jednak, czy efekt Elizy zawsze będzie stanowił poważne zagrożenie dla aplikacji konsumenckich. I mniejszy problem w rzeczowych rozwiązaniach biznesowych opartych na LLM. Być może drugi pilot z przyjaznym słownictwem i uśmiechniętymi emotikonami nie jest najlepszym przypadkiem. Nie wiem.

Tak czy inaczej, pamiętajmy wszyscy, że Sydney jest stochastyczną papugą. Ale niestety bardzo łatwo jest antropomorfizować papugę.

Miej oko na regulacje i zarządzanie AI

Właściwie omówiłem inne wiadomości w zeszłym tygodniu. Jednak mój wtorkowy artykuł na temat tego, co uważa się za „wielki skok” w zarządzaniu sztuczną inteligencją, nie zyskał takiej popularności jak Bing. Nie mogę sobie wyobrazić, dlaczego.

Ale jeśli CEO OpenAI Sam Altman’s tweety z weekendu są jakieś oznaki, mam wrażenie, że warto mieć oko na regulacje i zarządzanie AI. Może powinniśmy zwrócić na to większą uwagę niż to, czy chatbot Bing AI kazał użytkownikowi odejść od żony.

Udanego tygodnia wszystkim. Proszę o następny temat!

Misja VentureBeat ma być cyfrowym placem miejskim dla decydentów technicznych, aby mogli zdobywać wiedzę na temat transformacyjnej technologii korporacyjnej i przeprowadzać transakcje. Odkryj nasze briefingi.




Źródło