Rozrywka

Czarni artyści twierdzą, że sztuczna inteligencja wykazuje stronniczość, a algorytmy wymazują ich historię

  • 4 lipca, 2023
  • 9 min read
Czarni artyści twierdzą, że sztuczna inteligencja wykazuje stronniczość, a algorytmy wymazują ich historię


Artystka Stephanie Dinkins od dawna jest pionierką w łączeniu sztuki i technologii w swojej praktyce na Brooklynie. W maju Muzeum Guggenheima przyznało jej 100 000 dolarów za jej przełomowe innowacje, w tym trwającą serię wywiadów z Biną48, humanoidalnym robotem.

Przez ostatnie siedem lat eksperymentowała ze zdolnością sztucznej inteligencji do realistycznego przedstawiania czarnych kobiet, uśmiechających się i płaczących, używając różnych podpowiedzi słownych. Pierwsze wyniki były słabe, jeśli nie niepokojące: jej algorytm stworzył humanoida o różowym odcieniu, spowitego czarnym płaszczem.

„Spodziewałam się czegoś bardziej przypominającego czarną kobiecość” – powiedziała. I chociaż technologia poprawiła się od czasu jej pierwszych eksperymentów, Dinkins zaczęła używać terminów zastępczych w monitach tekstowych, aby pomóc generatorom obrazów AI osiągnąć pożądany obraz, „aby dać maszynie szansę na danie mi tego, czego chcę”. Ale niezależnie od tego, czy używa terminu „Afroamerykanka”, czy „czarna kobieta”, zniekształcenia maszynowe, które zniekształcają rysy twarzy i teksturę włosów, występują w dużym stopniu.

„Ulepszenia przesłaniają niektóre z głębszych pytań, które powinniśmy zadawać na temat dyskryminacji” – powiedział Dinkins. Artysta, który jest Black, dodał: „Uprzedzenia są głęboko osadzone w tych systemach, więc stają się zakorzenione i automatyczne. Jeśli pracuję w systemie, który wykorzystuje ekosystemy algorytmiczne, chcę, aby ten system wiedział, kim są Czarni w niuansach, abyśmy mogli czuć się lepiej wspierani”.

Nie jest sama w zadawaniu trudnych pytań na temat kłopotliwego związku między sztuczną inteligencją a rasą. Wielu czarnoskórych artystów znajduje dowody na uprzedzenia rasowe w sztucznej inteligencji, zarówno w dużych zbiorach danych, które uczą maszyny, jak generować obrazy, jak i w leżących u ich podstaw programach, które uruchamiają algorytmy. W niektórych przypadkach technologie AI wydają się ignorować lub zniekształcać podpowiedzi tekstowe artystów, wpływając na to, jak czarnoskórzy są przedstawiani na obrazach, aw innych wydają się tworzyć stereotypy lub cenzurować historię i kulturę Czarnych.

Dyskusja na temat uprzedzeń rasowych w ramach sztucznej inteligencji nasiliła się w ostatnich latach, a badania wykazały, że technologie rozpoznawania twarzy i asystenci cyfrowi mają problemy z identyfikacją obrazów i wzorców mowy osób innych niż biała. Badania poruszyły szersze kwestie sprawiedliwości i stronniczości.

Główne firmy stojące za generatorami obrazów AI — w tym OpenAI, Stability AI i Midjourney — zobowiązały się do ulepszenia swoich narzędzi. „Stronniczość to ważny problem w całej branży” – powiedziała Alex Beck, rzeczniczka OpenAI, w wywiadzie e-mailowym, dodając, że firma nieustannie próbuje „poprawić wydajność, zmniejszyć stronniczość i złagodzić szkodliwe wyniki”. Odmówiła podania, ilu pracowników pracowało nad uprzedzeniami rasowymi ani ile pieniędzy firma przeznaczyła na ten problem.

Warto przeczytać!  Tata Gypsy Rose Blanchard nie wierzył, że jej małżeństwo się ułoży

„Czarni są przyzwyczajeni do tego, że ich nie widać” – napisała senegalska artystka Linda Dounia Rebeiz we wstępie do swojej wystawy „In/Visible” dla Feral File, platformy handlowej NFT. „Kiedy jesteśmy widziani, jesteśmy przyzwyczajeni do tego, że jesteśmy przedstawiani w fałszywym świetle”.

Aby udowodnić swoją rację podczas wywiadu z reporterem, 28-letnia Rebeiz poprosiła generator obrazów OpenAI, DALL-E 2, o wyobrażenie sobie budynków w jej rodzinnym mieście, Dakarze. Algorytm stworzył suche pustynne krajobrazy i zrujnowane budynki, które według Rebeiz w niczym nie przypominały nadmorskich domów w stolicy Senegalu.

— To demoralizujące — powiedział Rebeiz. „Algorytm pochyla się w stronę kulturowego obrazu Afryki, który stworzył Zachód. Domyślnie opiera się na najgorszych stereotypach, które już istnieją w Internecie”.

W zeszłym roku OpenAI powiedział, że ustanawia nowe techniki różnicowania obrazów wytwarzanych przez DALL-E 2, tak aby narzędzie „generowało obrazy ludzi, które dokładniej odzwierciedlają różnorodność światowej populacji”.

Artystka prezentowana na wystawie Rebeiz, Minne Atairu jest doktorem. kandydat z Kolegium Nauczycielskiego Uniwersytetu Columbia, który planował użyć generatorów obrazów z młodymi kolorowymi studentami w południowym Bronksie. Ale teraz martwi się, że „może to spowodować, że uczniowie będą generować obraźliwe obrazy” – wyjaśnił Atairu.

Na wystawie Feral File znajdują się zdjęcia z jej „Blonde Braids Studies”, które badają ograniczenia algorytmu Midjourney do tworzenia zdjęć czarnoskórych kobiet z naturalnymi blond włosami. Kiedy artysta poprosił o zdjęcie bliźniaków jednojajowych Black o blond włosach, program zamiast tego stworzył rodzeństwo o jaśniejszej skórze.

„To mówi nam, skąd algorytm gromadzi obrazy” – powiedział Atairu. „Niekoniecznie jest to pobieranie od korpusu Czarnych, ale ukierunkowane na białych”.

Powiedziała, że ​​martwi się, że małe czarne dzieci mogą próbować generować swoje obrazy i widzieć dzieci, których skóra jest rozjaśniona. Atairu przypomniała sobie niektóre ze swoich wcześniejszych eksperymentów z Midjourney, zanim ostatnie aktualizacje poprawiły jej możliwości. „Generowałoby to obrazy przypominające czarną twarz” – powiedziała. „Widziałbyś nos, ale to nie był nos człowieka. Wyglądał jak nos psa”.

W odpowiedzi na prośbę o komentarz, David Holz, założyciel Midjourney, powiedział w e-mailu: „Jeśli ktoś znajdzie problem z naszymi systemami, prosimy go o przesłanie nam konkretnych przykładów, abyśmy mogli zbadać sprawę”.

Warto przeczytać!  Recenzja „Ona przyszła do mnie” – Festiwal Filmowy w Berlinie – Termin

Stability AI, która świadczy usługi generatora obrazów, powiedziała, że ​​planuje współpracować z przemysłem sztucznej inteligencji w celu ulepszenia technik oceny stronniczości z większą różnorodnością krajów i kultur. Stronniczość, jak twierdzi firma AI, jest spowodowana „nadreprezentacją” w jej ogólnych zbiorach danych, chociaż nie określiła, czy problemem była tutaj nadreprezentacja białych ludzi.

Na początku tego miesiąca Bloomberg przeanalizował ponad 5000 obrazów wygenerowanych przez Stability AI i stwierdził, że jego program wzmocnił stereotypy dotyczące rasy i płci, zazwyczaj przedstawiając osoby o jaśniejszym odcieniu skóry jako osoby zajmujące dobrze płatne prace, podczas gdy osoby o ciemniejszym odcieniu skóry były oznaczone jako „zmywacz do naczyń”. ” i „gospodyni”.

Te problemy nie powstrzymały szaleństwa inwestycji w branży technologicznej. Niedawny różowy raport firmy konsultingowej McKinsey przewidywał, że generatywna sztuczna inteligencja doda globalnej gospodarce 4,4 biliona dolarów rocznie. Według danych GlobalData Deals Database, w zeszłym roku prawie 3200 start-upów otrzymało dofinansowanie w wysokości 52,1 miliarda dolarów.

Firmy technologiczne walczyły z oskarżeniami o stronniczość w przedstawianiu ciemnej skóry od początków fotografii kolorowej w latach pięćdziesiątych XX wieku, kiedy firmy takie jak Kodak wykorzystywały białe modele do opracowywania kolorów. Osiem lat temu Google wyłączył zdolność swojego programu AI do wyszukiwania goryli i małp za pośrednictwem aplikacji Zdjęcia, ponieważ algorytm nieprawidłowo klasyfikował Czarnych do tych kategorii. Jeszcze w maju tego roku problem nadal nie został rozwiązany. Dwóch byłych pracowników, którzy pracowali nad technologią, powiedziało The New York Times, że Google nie wyszkolił systemu sztucznej inteligencji za pomocą wystarczającej liczby zdjęć czarnoskórych ludzi.

Inni eksperci badający sztuczną inteligencję powiedzieli, że uprzedzenia sięgają głębiej niż zbiory danych, odnosząc się do wczesnego rozwoju tej technologii w latach 60.

„Problem jest bardziej skomplikowany niż stronniczość danych” — powiedział James E. Dobson, historyk kultury z Dartmouth College i autor niedawnej książki o narodzinach wizji komputerowej. Z jego badań wynika, że ​​we wczesnych latach uczenia maszynowego dyskutowano na temat rasy bardzo mało, a większość naukowców pracujących nad technologią stanowili biali mężczyźni.

„Trudno jest oddzielić dzisiejsze algorytmy od tamtej historii, ponieważ inżynierowie opierają się na tych wcześniejszych wersjach” — powiedział Dobson.

Aby zmniejszyć pojawianie się uprzedzeń rasowych i nienawistnych obrazów, niektóre firmy zakazały stosowania niektórych słów w monitach tekstowych, które użytkownicy przesyłają do generatorów, takich jak „niewolnik” i „faszysta”.

Warto przeczytać!  Jak sceny seksu w Hollywood zmienią się dzięki nowej umowie SAG-AFTRA

Ale Dobson powiedział, że firmy, które miały nadzieję na proste rozwiązanie, takie jak cenzurowanie podpowiedzi, które użytkownicy mogą przesyłać, unikały bardziej fundamentalnych problemów związanych z uprzedzeniami w podstawowej technologii.

„To niepokojący czas, ponieważ te algorytmy stają się coraz bardziej skomplikowane. A kiedy widzisz wychodzące śmieci, musisz się zastanawiać, jaki rodzaj śmieci nadal siedzi tam w modelu” – dodał profesor.

Auriea Harvey, artystka biorąca udział w niedawnej wystawie Whitney Museum „Refiguring” na temat tożsamości cyfrowych, wpadła na te zakazy w ramach niedawnego projektu wykorzystującego Midjourney. „Chciałam zapytać bazę danych o to, co wie o statkach niewolników” – powiedziała. „Otrzymałem wiadomość, że Midjourney zawiesi moje konto, jeśli będę kontynuował”.

Dinkins napotkała podobne problemy z NFT, które stworzyła i sprzedała, pokazując, jak okra została sprowadzona do Ameryki Północnej przez zniewolonych ludzi i osadników. Została ocenzurowana, kiedy próbowała użyć programu generatywnego Replicate do robienia zdjęć statków niewolników. W końcu nauczyła się przechytrzyć cenzorów, używając terminu „statek piracki”. Obraz, który otrzymała, był przybliżeniem tego, czego chciała, ale wywołał też niepokojące pytania dla artystki.

„Co ta technologia robi z historią?” — zapytał Dinkins. „Możesz zobaczyć, że ktoś próbuje poprawić stronniczość, ale jednocześnie wymazuje kawałek historii. Uważam te wymazania za równie niebezpieczne jak wszelkie uprzedzenia, ponieważ po prostu zapomnimy, jak się tu znaleźliśmy”.

Naomi Beckwith, główna kuratorka Muzeum Guggenheima, uznała zniuansowane podejście Dinkinsa do kwestii reprezentacji i technologii jako jeden z powodów, dla których artysta otrzymał pierwszą nagrodę muzeum w dziedzinie sztuki i technologii.

„Stephanie stała się częścią tradycji artystów i pracowników kultury, którzy wyszukują dziury w tych nadrzędnych i totalizujących teoriach na temat tego, jak rzeczy działają” – powiedział Beckwith. Kuratorka dodała, że ​​jej początkowa paranoja dotycząca programów sztucznej inteligencji zastępujących ludzką kreatywność znacznie się zmniejszyła, gdy zdała sobie sprawę, że te algorytmy praktycznie nic nie wiedzą o kulturze Czarnych.

Ale Dinkins nie jest całkiem gotowy do rezygnacji z technologii. Nadal stosuje go w swoich projektach artystycznych — ze sceptycyzmem. „Kiedy system może wygenerować naprawdę wysokiej jakości obraz płaczącej lub uśmiechającej się czarnej kobiety, czy możemy odpocząć?”




Źródło