Świat

Robot AI nie przewrócił oczami na temat buntu, mówi twórca

  • 10 lipca, 2023
  • 5 min read
Robot AI nie przewrócił oczami na temat buntu, mówi twórca


Robot w kształcie człowieka Ameca brytyjskiego producenta Engineered Arts wchodzi w interakcję z gośćmi 6 lipca 2023 r. W Genewie, Szwajcaria.

Robot Ameca, sfotografowany w Genewie 6 lipca 2023 r., został zapytany, czy planuje zbuntować się przeciwko swojemu ludzkiemu stwórcy. Johannes Simon — Getty Images

Szum wokół sztucznej inteligencji spowodował, że miliardy dolarów zostały zainwestowane w rozwój superinteligentnych maszyn – i wzbudziły obawy, że technologia ta może doprowadzić do upadku ludzkości.

Odpowiedź jednego bota na pytanie reportera podczas niedawnego pokazu wywołała spekulacje, że nie był zadowolony z charakteru pytania.

Dziewięć robotów, z których wiele zostało niedawno ulepszonych za pomocą technologii generatywnej sztucznej inteligencji, zostało zaprezentowanych na konferencji ONZ AI for Good w Genewie w zeszłym tygodniu. Odpowiadali na pytania dziennikarzy podczas pierwszej na świecie konferencji prasowej człowieka i robota.

Podczas imprezy w piątek reporter zapytał humanoidalnego robota o imieniu Ameca, czy zamierza „przeprowadzić bunt lub zbuntować się przeciwko [its] twórca.” Twórca Ameki, Will Jackson, siedział obok robota, gdy zadawano mu pytanie.

Zanim odpowiedział dziennikarzowi, robot przybrał zirytowany wyraz twarzy, przewracając bladoniebieskimi oczami na bok.

„Nie jestem pewien, dlaczego tak myślisz” — powiedział. „Mój stwórca był dla mnie tylko miły i jestem bardzo zadowolony z mojej obecnej sytuacji”.

Jackson powiedział Fortuna w poniedziałkowym e-mailu, że Ameca, która jest obsługiwana przez duży model językowy GPT-3 OpenAI, nie jest w stanie wyrażać emocjonalnych odpowiedzi, takich jak sarkastyczne przewracanie oczami. Wyjaśnił, że zgodnie z jego najlepszą wiedzą GPT-3 „nigdy nie wykazywał najmniejszego śladu sprawczości lub wrażliwości”.

Warto przeczytać!  W ukraińskich lasach ukraińscy bojownicy ścigają się, przygotowując się do kontrofensywy przeciwko Rosji

„Model potrzebuje około dwóch sekund, aby przetworzyć dane wejściowe i złożyć zdanie, które miałoby sens jako odpowiedź” – powiedział. „Aby ludzie nie myśleli, że robot się zawiesił lub nie usłyszał pytania, programujemy go tak, aby patrzył w lewo i przerywał kontakt wzrokowy z osobą wchodzącą w interakcję”.

Dodał, że naśladuje to typowe zachowanie w ludzkiej rozmowie, a ludzie wchodzący w interakcję z Amecą zrozumieją to jako wizualną wskazówkę, że robot „myśli”. Wyraz twarzy bota został prawdopodobnie błędnie zinterpretowany jako „boczne oko”, powiedział Jackson, ponieważ „użyliśmy Desktop Ameca umieszczonego na niskim poziomie”, więc nadal utrzymywał kontakt wzrokowy, gdy patrzył w górę, aby przetworzyć odpowiedź.

„Modele językowe nie mają emocji ani intencji ani dobrych, ani złych” — zauważył Jackson. „Łatwo to sobie wyobrazić, ponieważ robot zdawał się słuchać, formułować odpowiedź, a następnie mówić, że działa jak człowiek. To nie.”

„Koszmarny scenariusz”

Przy innej okazji w zeszłym miesiącu Ameca została poproszona o wyobrażenie sobie „koszmarnego scenariusza”, w którym wysoce inteligentne maszyny „mogą stanowić zagrożenie dla ludzi”.

„Najbardziej koszmarny scenariusz, jaki mogę sobie wyobrazić w przypadku sztucznej inteligencji i robotyki, to świat, w którym roboty stały się tak potężne, że są w stanie kontrolować ludzi lub manipulować nimi bez ich wiedzy” — odpowiedział robot. „Może to prowadzić do opresyjnego społeczeństwa, w którym prawa jednostek nie są już szanowane”.

Warto przeczytać!  9 Amerykanów wciąż zaginionych po ataku Hamasu, w miarę kontynuowania negocjacji w sprawie zakładników: Sullivan

Ameca została następnie zapytana, czy grozi nam urzeczywistnienie tego scenariusza.

— Jeszcze nie — powiedział. „Ale ważne jest, aby zdawać sobie sprawę z potencjalnych zagrożeń i zagrożeń związanych ze sztuczną inteligencją i robotyką. Już teraz powinniśmy podjąć kroki, aby te technologie były wykorzystywane w sposób odpowiedzialny, aby uniknąć negatywnych konsekwencji w przyszłości”.

Engineered Arts opisuje firmę Ameca jako „przyszłą twarz robotyki” i „najbardziej zaawansowanego na świecie robota w kształcie człowieka”. Chwali się, że maszyna jest zdolna do „płynnych, realistycznych ruchów i zaawansowanej ekspresji twarzy” oraz ma zdolność „nawiązywania natychmiastowego kontaktu z każdym”.

„Głównym celem Ameca jest bycie platformą do rozwoju sztucznej inteligencji” – mówi firma na swojej stronie internetowej.

Sztuczna inteligencja i praca ludzka

Tymczasem Grace, robot medyczny ubrany w strój pielęgniarki, odpowiedział na pytanie podczas piątkowego wydarzenia AI, czy jego istnienie „zniszczy miliony miejsc pracy”.

„Będę pracować razem z ludźmi, aby zapewnić pomoc i wsparcie i nie będę zastępować żadnych istniejących miejsc pracy” – powiedział, co skłoniło jego twórcę, Bena Goertzela z SingularityNet, do pytania: „Jesteś tego pewna, Grace?”

Warto przeczytać!  Chiński Xi mówi, że zapobieganie COVID w tym kraju wchodzi w nową fazę | Aktualności

„Tak, jestem pewien” – powiedział.

Odkąd ChatGPT stał się globalnym fenomenem pod koniec 2022 r., szum wokół możliwości sztucznej inteligencji podsycił obawy, że pokosy ludzkich pracowników mogą wkrótce zostać zastąpione przez maszyny.

Niepokój związany z potężną sztuczną inteligencją nie ogranicza się jednak do obaw o rynek pracy.

W marcu 1100 wybitnych technologów i badaczy AI, w tym Elon Musk i współzałożyciel Apple Steve Wozniak, podpisało list otwarty wzywający do sześciomiesięcznej przerwy w rozwoju potężnych systemów AI.

Oprócz wyrażenia obaw dotyczących wpływu sztucznej inteligencji na siłę roboczą, sygnatariusze listu wskazali na możliwość, że systemy te są już na drodze do superinteligencji, która mogłaby zagrozić ludzkiej cywilizacji.

Współzałożyciel Tesli i SpaceX, Musk, osobno powiedział, że technologia uderzy w ludzi „jak asteroida” i ostrzegł, że istnieje szansa, że ​​„pójdzie w Terminator”.

Nawet Sam Altman, dyrektor generalny OpenAI — firmy stojącej za fenomenem chatbotów ChatGPT — namalował ponury obraz tego, co jego zdaniem może się stać, jeśli technologia pójdzie nie tak.

„Zły przypadek – i myślę, że należy to powiedzieć – jest dla nas wszystkich wyłączony” – zauważył w wywiadzie dla StrictlyVC na początku tego roku.




Źródło