Apple usuwa nagie aplikacje AI z App Store
Apple zajął bardziej zdecydowane stanowisko wobec szkodliwych aplikacji, usuwając kilka z App Store. Aplikacje te, wykorzystujące technologię generowania obrazów AI, umożliwiały użytkownikom tworzenie bez ich zgody nagich zdjęć.
Generatywna sztuczna inteligencja jest potężnym narzędziem w dziedzinach kreatywnych, ale może też zostać niewłaściwie wykorzystana. Technologia ta stała się wylęgarnią deepfakes i porno zemsty.
Apple był już wcześniej krytykowany za bierność w stosunku do tych aplikacji. Raport z 2022 r. ujawnił w App Store aplikacje ukrywające swoje prawdziwe możliwości. W raporcie 404 Media firma Apple została poinformowana o szeregu aplikacji do generowania obrazów AI dostępnych w App Store. W szczególności były to aplikacje reklamowane jako zdolne do tworzenia nagich zdjęć bez ich zgody.
Choć reklamowane były niewinnie, promowały fałszywe treści pornograficzne w witrynach dla dorosłych. Pomimo ostrzeżeń Apple i Google zażądały jedynie, aby aplikacje przestały wyświetlać reklamy w tych witrynach, co umożliwi im pozostanie w ich sklepach.
Według raportu Apple Insider aplikacje oferowały takie funkcje, jak zamiana twarzy na zdjęciach dorosłych. Inne były reklamowane jako aplikacje „Rozbierz”, praktycznie zdejmując ubrania z obiektów na skądinąd niewinnych zdjęciach.
Po otrzymaniu ostrzeżenia o aplikacjach i związanych z nimi reklamach Apple usunął trzy z nich z App Store. Google w podobny sposób usunął aplikacje ze Sklepu Play. Decyzja Apple o ostatecznym usunięciu aplikacji naruszających zasady z App Store to najnowsze posunięcie Apple, które stara się zachować jak najbardziej jawny kontakt ze sztuczną inteligencją.
Dochodzenie zawarte w raporcie poruszało już kwestię, że Instagram reklamuje aplikacje za pośrednictwem biblioteki reklam Meta. Po oznaczeniu reklam Meta je usunęła.
Działanie to towarzyszy innym wysiłkom Apple mającym na celu zapewnienie odpowiedzialnych praktyk związanych ze sztuczną inteligencją. Priorytetowo traktują metody ochrony prywatności w szkoleniu swojej sztucznej inteligencji i unikają problemów z naruszeniem praw autorskich. Kontrastuje to z firmami takimi jak Microsoft i OpenAI, które stoją przed procesami sądowymi za używanie materiałów chronionych prawem autorskim bez pozwolenia.
Generatywna sztuczna inteligencja jest potężnym narzędziem w dziedzinach kreatywnych, ale może też zostać niewłaściwie wykorzystana. Technologia ta stała się wylęgarnią deepfakes i porno zemsty.
Apple był już wcześniej krytykowany za bierność w stosunku do tych aplikacji. Raport z 2022 r. ujawnił w App Store aplikacje ukrywające swoje prawdziwe możliwości. W raporcie 404 Media firma Apple została poinformowana o szeregu aplikacji do generowania obrazów AI dostępnych w App Store. W szczególności były to aplikacje reklamowane jako zdolne do tworzenia nagich zdjęć bez ich zgody.
Choć reklamowane były niewinnie, promowały fałszywe treści pornograficzne w witrynach dla dorosłych. Pomimo ostrzeżeń Apple i Google zażądały jedynie, aby aplikacje przestały wyświetlać reklamy w tych witrynach, co umożliwi im pozostanie w ich sklepach.
Według raportu Apple Insider aplikacje oferowały takie funkcje, jak zamiana twarzy na zdjęciach dorosłych. Inne były reklamowane jako aplikacje „Rozbierz”, praktycznie zdejmując ubrania z obiektów na skądinąd niewinnych zdjęciach.
Po otrzymaniu ostrzeżenia o aplikacjach i związanych z nimi reklamach Apple usunął trzy z nich z App Store. Google w podobny sposób usunął aplikacje ze Sklepu Play. Decyzja Apple o ostatecznym usunięciu aplikacji naruszających zasady z App Store to najnowsze posunięcie Apple, które stara się zachować jak najbardziej jawny kontakt ze sztuczną inteligencją.
Dochodzenie zawarte w raporcie poruszało już kwestię, że Instagram reklamuje aplikacje za pośrednictwem biblioteki reklam Meta. Po oznaczeniu reklam Meta je usunęła.
Zwiększać