„AI or Not” to bezpłatna aplikacja internetowa, która twierdzi, że wykrywa zdjęcia generowane przez AI
![„AI or Not” to bezpłatna aplikacja internetowa, która twierdzi, że wykrywa zdjęcia generowane przez AI](https://oen.pl/wp-content/uploads/2023/06/AI-or-Not-is-a-Free-Web-App-That-Claims-to-Detect-AI-Generated-Photos-770x470.jpg)
„AI or Not” to bezpłatna aplikacja internetowa, która twierdzi, że jest w stanie identyfikować obrazy generowane przez sztuczną inteligencję (AI) po prostu przesyłając je lub podając adres URL.
Wspierana przez Optic firma twierdzi, że jej technologia jest najmądrzejszym silnikiem rozpoznawania treści dla Web3 i twierdzi, że jest w stanie identyfikować obrazy wykonane przy użyciu Stable Diffusion, Midjourney, Dall-E lub GAN.
„Optic AI or Not to usługa internetowa, która pomaga użytkownikom szybko i dokładnie określić, czy obraz został wygenerowany przez sztuczną inteligencję (AI), czy stworzony przez człowieka. Jeśli obraz jest generowany przez sztuczną inteligencję, nasza usługa identyfikuje zastosowany model sztucznej inteligencji (w połowie podróży, stabilna dyfuzja lub DALL-E)” – mówi Optic.
„Naszą misją jest zapewnienie przejrzystości mediom w łańcuchach bloków, aby wszystkie społeczności mogły zrealizować swój kreatywny i ekonomiczny potencjał”.
Platforma, zauważona przez Fotografia DIY, jest bardzo łatwy w użyciu. Każdy może przesłać obraz lub podać link do hostowanej lokalizacji obrazu wygenerowanego przez sztuczną inteligencję, a Optic AI lub Not jest w stanie przekazać opinię na temat tego, czy obraz jest prawdziwy, czy wygenerowany przez sztuczną inteligencję w ciągu kilku sekund.
Firma twierdzi, że AI or Not wykorzystuje „zaawansowane algorytmy i techniki uczenia maszynowego” do analizy obrazów, a następnie wykrywania oznak generowania sztucznej inteligencji.
„Nasza usługa porównuje obraz wejściowy ze znanymi wzorcami, artefaktami i cechami różnych modeli sztucznej inteligencji oraz obrazami stworzonymi przez człowieka, aby określić pochodzenie treści” — wyjaśnia Optic.
Optic pozycjonuje swoją usługę jako pomoc użytkownikom w identyfikacji obrazów generowanych przez sztuczną inteligencję, zwłaszcza w trudnych przypadkach, aby uniknąć wielu problemów, które mogą wynikać z ich używania, takich jak oszustwa lub dezinformacja.
Czy to działa?
PetaPixel postanowił sprawdzić, czy platforma będzie w stanie obsłużyć szereg obrazów: zarówno prostych, jak i łatwych do zidentyfikowania, dostrzegalnych przez bystre ludzkie oko, a także bardziej wymagających podróbek.
Na początek firma Optic została zakwestionowana przez zdjęcie, które firma Nikon opublikowała niedawno w ramach kampanii „Natural Intelligence”, i na szczęście AI or Not była w stanie rozpoznać, że rzeczywiście jest to prawdziwe zdjęcie.
Następny, PetaPixel dał mu zdjęcie wygenerowane przez sztuczną inteligencję, które fotograf stworzył dla klienta z branży nieruchomości. Ponownie z powodzeniem rozpoznał zdjęcie jako fałszywe.
W lutym pewien artysta wygrał lokalny konkurs fotograficzny dzięki zdjęciu lotniczemu surfera w oceanie wygenerowanym przez sztuczną inteligencję, a firma Optic po raz kolejny była w stanie rozpoznać, że zdjęcie nie jest prawdziwe.
Kolejny zestaw wyników jest mniej różowy dla Optic. Nie był w stanie ustalić, czy wygenerowane przez sztuczną inteligencję zdjęcie Toma Hardy’ego jako Jamesa Bonda nie było prawdziwe, zamiast tego dostarczyło raczej nieprzydatne „Nie wiem”.
Po dostarczeniu zdjęcia, na którym sztuczna inteligencja została wykorzystana do zmiany tożsamości osoby na obrazie, firma Optic nie była w stanie stwierdzić, czy zdjęcie zostało zmienione.
Ale być może najbardziej potępiający, Optic nie mógł powiedzieć, że poniższy obraz byłego prezydenta Donalda Trumpa całującego Anthony’ego Fauci, który został stworzony specjalnie w celu wprowadzenia w błąd odbiorców, został wygenerowany przez sztuczną inteligencję.
Nie udało się również zidentyfikować tego w pełni makijażowego influencera w mediach społecznościowych:
W przypadku niektórych z tych obrazów niezdolność platformy do odróżnienia prawdziwych od fałszywych ma sens: Optic obiecuje jedynie, że może wykrywać obrazy stworzone w całości przez Stable Diffusion, Midjourney, Dall-E lub GAN, więc obraz Toma Hardy’ego, fałszywe media społecznościowe influencer, a uliczne zdjęcie ze zmienioną twarzą ma sens.
Jednak niemożność zobaczenia w pełni AI Trumpa i Fauci pokazuje, że ta platforma ma jeszcze wiele do zrobienia.