Fotografia

To narzędzie do deepfake’owania w czasie rzeczywistym za pomocą kamery internetowej podnosi alarm dotyczący przyszłości kradzieży tożsamości

  • 15 sierpnia, 2024
  • 4 min read
To narzędzie do deepfake’owania w czasie rzeczywistym za pomocą kamery internetowej podnosi alarm dotyczący przyszłości kradzieży tożsamości


deepfake wideorozmowa

Nowy pakiet oprogramowania typu open source wywołuje wstrząsy w świecie technologii i budzi poważne obawy o przyszłość tożsamości cyfrowej. Narzędzie o nazwie Deep-Live-Cam zamienia twarz osoby na transmisję wideo na żywo w czasie rzeczywistym i szczerze mówiąc, jest to przerażające jak cholera.

Deep-Live-Cam wykorzystuje kombinację istniejących modeli AI, aby osiągnąć imponujące rezultaty. Zaczyna od wykrywania twarzy zarówno w obrazie źródłowym, jak i w transmisji wideo na żywo. Następnie, używając modelu o nazwie „inswapper”, zamienia twarze. Na koniec, inny model, GFPGAN, ulepsza zamienioną twarz, aby wyglądała bardziej realistycznie. Podstawowa technologia, trenowana na rozległych zbiorach danych obrazów twarzy, nauczyła się rozumieć strukturę i dynamikę twarzy, co pozwala jej tworzyć wysoce przekonujące deepfake’i.

Użytkownik X, João Fiadeiro, zademonstrował narzędzie, podmieniając na swoich twarzach twarze JD Vance’a, Hugh Granta, Marka Zuckerberga i George’a Clooneya:

Możliwe obawy

Podczas gdy początkowe zastosowania Deep-Live-Cam mogą wydawać się nieszkodliwe – pomyśl o zabawnych filtrach mediów społecznościowych lub podszywaniu się pod celebrytów – potencjał nadużyć jest alarmujący. „Dziwne, że wszystkie główne innowacje technologiczne ostatnio są pod drzewem umiejętności oszustwa” – napisał ilustrator Corey Brickley na Twitterze. „Pamiętajcie, aby ustalić słowa kodowe ze swoimi rodzicami wszyscy”.

Warto przeczytać!  Recenzujemy Artlist – kompleksowe miejsce dla twórców treści

Wyobraź sobie scenariusz, w którym oszust używa deepfake’a, aby podszyć się pod zaufanego współpracownika lub członka rodziny, przekonując Cię do przekazania pieniędzy lub udostępnienia poufnych informacji. Albo rozważ potencjał deepfake’ów do rozpowszechniania dezinformacji lub manipulowania opinią publiczną. Możliwości są nieograniczone i równie przerażające.

Obawy wykraczają poza deepfake’i twarzy. Klonowanie głosu i synteza AI obrazu wideo z obrazu na obraz również szybko ewoluują. Chociaż nie są jeszcze na tym samym poziomie wyrafinowania co technologia zamiany twarzy, narzędzia te zmierzają w kierunku większej dostępności i realizmu w niedalekiej przyszłości.

Co zatem można z tym zrobić? Pierwszą rzeczą, jaka przychodzi na myśl, jest opracowanie środków zaradczych do wykrywania deepfake’ów. Naukowcy i firmy technologiczne pracują nad narzędziami opartymi na sztucznej inteligencji, aby identyfikować zmanipulowane treści. Jednak jest to nieustanny wyścig zbrojeń, ponieważ technologia deepfake’ów wciąż się rozwija.

Warto przeczytać!  Tamron wypuszcza obiektyw 28-75m f/2.8 Di III VXD G2 z mocowaniem Nikon Z

Ponadto, ale nie mniej ważne, podnoszenie świadomości społecznej na temat deepfake’ów jest niezbędne. Ludzie muszą być edukowani na temat ryzyka i tego, jak rozpoznawać potencjalne deepfake’i i obrazy generowane przez AI. Krytyczne myślenie i weryfikacja informacji staną się coraz ważniejsze w erze cyfrowej. Chociaż, kiedy widzę na Facebooku ludzi, którzy wierzą, że papugi w kolorze mandali są prawdziwe… Nie jestem szczególnie optymistycznie nastawiony do tego drugiego.

[via PetaPixel, Ars Technica]




Źródło