Świat

Dlaczego przełomowa unijna ustawa o sztucznej inteligencji była tak trudna do przyjęcia

  • 13 grudnia, 2023
  • 8 min read
Dlaczego przełomowa unijna ustawa o sztucznej inteligencji była tak trudna do przyjęcia


Kiedy w zeszłym tygodniu europejscy prawodawcy osiągnęli tymczasowe porozumienie w sprawie przełomowych przepisów dotyczących sztucznej inteligencji, mieli powód do świętowania.

Ustawa UE o sztucznej inteligencji osiągnęła w piątek długo oczekiwany punkt kulminacyjny nie tylko po dwóch latach szerokiej dyskusji, ale także trzydniowym „maratonie” debaty pomiędzy Komisją Europejską, Parlamentem Europejskim i państwami członkowskimi UE mającej na celu rozwiązanie nieporozumień. Całonocne osoby zostały wyciągnięte. Kosze przepełnione resztki kawy, napojów energetycznych i słodkich przekąsek. Było to środowisko, jakiego można oczekiwać od studentów wkuwających się do egzaminów końcowych, a nie od prawodawców pracujących nad przepisami, które mogłyby wyznaczyć plan globalnych regulacji dotyczących sztucznej inteligencji. Chaos wynikał w dużej mierze z dwóch spornych kwestii, które groziły wykolejeniem całych negocjacji: rozpoznawania twarzy i potężnych modeli „podstawowych”.

Kiedy w kwietniu 2021 r. po raz pierwszy zaproponowano ustawę o sztucznej inteligencji, jej celem było zwalczanie „nowych zagrożeń lub negatywnych konsekwencji dla jednostek lub społeczeństwa”, jakie może powodować sztuczna inteligencja. Ustawa skupiała się na narzędziach już wdrażanych w takich dziedzinach, jak policja, rekrutacja do pracy i edukacja. Ale chociaż ogólny cel ustawy nie uległ zmianie, technologia AI zrobił — i szybko. Proponowane zasady nie były przystosowane do obsługi systemów ogólnego przeznaczenia, szeroko nazywanych modelami podstawowymi, takimi jak technologia leżąca u podstaw niezwykle popularnego rozwiązania ChatGPT OpenAI, które zostało wprowadzone na rynek w listopadzie 2022 r.

Duża część opóźnień w ostatniej chwili wynikała z wysiłków decydentów, którzy starali się zapewnić, aby te nowe technologie sztucznej inteligencji – a także jeszcze nierozwinięte przyszłe – zostały objęte zakresem prawodawstwa. Zamiast po prostu regulować każdy obszar, w którym mogą się pojawić (lista obejmująca samochody, zabawki, urządzenia medyczne i wiele innych), w ustawie zastosowano system poziomów, w którym uszeregowano aplikacje AI na podstawie ryzyka. Systemy sztucznej inteligencji „wysokiego ryzyka”, które mogą mieć wpływ na bezpieczeństwo lub prawa podstawowe, zostały poddane najbardziej uciążliwym ograniczeniom regulacyjnym. Co więcej, systemy AI ogólnego przeznaczenia (GPAI), takie jak modele GPT OpenAI, podlegały dodatkowym regulacjom. Stawka związana z tą nominacją była wysoka, w związku z czym debata na jej temat była zacięta.

Warto przeczytać!  Arabia Saudyjska lekceważy USA, obejmuje Chiny i Rosję w globalnej grze o władzę

„W pewnym momencie wyglądało na to, że napięcia związane z uregulowaniem GPAI mogą wykoleić cały proces negocjacji” – mówi Daniel Leufer, starszy analityk ds. polityki w Access Now, cyfrowej organizacji praw człowieka. „Francja, Niemcy i Włochy wywarły ogromny nacisk, aby całkowicie wyłączyć te systemy z jakichkolwiek obowiązków wynikających z ustawy o sztucznej inteligencji”.

Francja, Niemcy i Włochy poszukiwały w ostatniej chwili kompromisów w zakresie podstawowych modeli sztucznej inteligencji

Kraje te, trzy z największych gospodarek Europy, rozpoczęły w listopadzie negocjacje z kamieniem milowym w związku z obawami, że surowe ograniczenia mogą ograniczyć innowacyjność i zaszkodzić start-upom rozwijającym podstawowe modele sztucznej inteligencji w swoich jurysdykcjach. Obawy te zderzyły się z innymi prawodawcami UE, którzy starali się wprowadzić rygorystyczne regulacje dotyczące sposobu ich wykorzystania i rozwoju. Ten klucz w ostatniej chwili rzucony w negocjacje w sprawie ustawy o sztucznej inteligencji przyczynił się do opóźnień w osiągnięciu porozumienia, ale nie był to jedyny punkt sporny.

W rzeczywistości wydaje się, że znaczna część aktualnego ustawodawstwa pozostała nierozstrzygnięta nawet na kilka dni przed zawarciem tymczasowego porozumienia. Na spotkaniu europejskich ministrów komunikacji i transportu 5 grudnianiemiecki minister cyfryzacji Volker Wissing stwierdził, że „rozporządzenia dotyczące sztucznej inteligencji jako całość nie są jeszcze całkowicie dojrzałe”.

Systemy GPAI musiały sprostać wymogom, takim jak ujawnianie danych szkoleniowych, zużycie energii i incydenty związane z bezpieczeństwem, a także podlegały dodatkowym ocenom ryzyka. Nic więc dziwnego, że OpenAI (firma znana z odmowy ujawniania szczegółów swojej pracy), Google i Microsoft lobbowały w UE, aby złagodzić bardziej rygorystyczne przepisy. Te próby najwyraźniej się opłaciły. Chociaż prawodawcy rozważali już wcześniej kategoryzację Wszystko GPAI uznano za „wysokie ryzyko” – w wyniku porozumienia osiągniętego w zeszłym tygodniu poddano je dwustopniowemu systemowi, który daje firmom pewne pole manewru w celu uniknięcia najsurowszych ograniczeń wynikających z ustawy o sztucznej inteligencji. To też, prawdopodobnie przyczyniły się do opóźnień w ostatniej chwili omawiano w zeszłym tygodniu w Brukseli.

Warto przeczytać!  Sunak z Wielkiej Brytanii obiecuje obowiązkową służbę wojskową dla 18-latków, jeśli zostaną wybrani | Wiadomości polityczne

„Ostatecznie nałożyliśmy bardzo minimalne obowiązki w zakresie przejrzystości systemów GPAI, z pewnymi dodatkowymi wymogami dotyczącymi tak zwanych systemów GPAI o dużym wpływie, które stwarzają „ryzyko systemowe” – mówi Leufer – ale „długa walka” wciąż trwa przyszłości, aby zapewnić prawidłowe funkcjonowanie nadzoru i egzekwowania takich środków.”

Jest też jedna znacznie trudniejsza kategoria: systemy o „niedopuszczalnym” poziomie ryzyka, których ustawa o sztucznej inteligencji skutecznie całkowicie zakazuje. A w negocjacjach do ostatnich godzin państwa członkowskie tak robiły wciąż trwają sparingi czy powinno to obejmować niektóre z ich najbardziej kontrowersyjnych, zaawansowanych technologicznie narzędzi nadzoru.

Całkowity zakaz stosowania systemów sztucznej inteligencji do rozpoznawania twarzy spotkał się z ostrym sprzeciwem

W lipcu Parlament Europejski początkowo zapalił zielone światło dla całkowitego zakazu stosowania systemów biometrycznych do celów masowej inwigilacji publicznej. Obejmowało to tworzenie baz danych rozpoznawania twarzy poprzez masowe pobieranie danych z mediów społecznościowych lub nagrań CCTV; predykcyjne systemy policyjne oparte na lokalizacji i przeszłych zachowaniach; oraz kategoryzacja biometryczna oparta na wrażliwych cechach, takich jak pochodzenie etniczne, religia, rasa, płeć, obywatelstwo i przynależność polityczna. Zakazała także zdalnej identyfikacji biometrycznej w czasie rzeczywistym i z mocą wsteczną, z jedynym wyjątkiem polegającym na umożliwieniu organom ścigania stosowania systemów opóźnionego rozpoznawania w celu ścigania „poważnych przestępstw” po uzyskaniu zgody sądu. Komisja Europejska i państwa członkowskie UE zakwestionowały to i uzyskały ustępstwa – w stosunku do niektórych konsternacja krytyków.

Zatwierdzony w piątek projekt zawiera wyjątki, które pozwalają na ograniczone wykorzystanie automatycznego rozpoznawania twarzy, np. w przypadkach, gdy identyfikacja następuje ze znacznym opóźnieniem. Może również zostać zatwierdzony do określonych przypadków użycia przez organy ścigania, związanych z zagrożeniami bezpieczeństwa narodowego, ale tylko pod pewnymi (obecnie nieokreślonymi) warunkami. To prawdopodobnie uspokoiło członków bloku, takich jak Francja, która nalegała na wykorzystanie nadzoru wspomaganego sztuczną inteligencją do monitorowania terroryzmu i zbliżających się Igrzysk Olimpijskich w Paryżu w 2024 r., ale organizacje praw człowieka, takie jak Amnesty International, bardziej krytycznie odniosły się do tej decyzji.

Warto przeczytać!  Australijski Sąd Najwyższy odrzuca wniosek Rosji o nakaz wstrzymania eksmisji ambasady

„To rozczarowujące widzieć, jak Parlament Europejski ulega presji państw członkowskich, aby wycofał się ze swojego pierwotnego stanowiska” – powiedział Mher Hakobyan, doradca ds. regulacji dotyczących sztucznej inteligencji w Amnesty International. „Chociaż zwolennicy twierdzą, że projekt dopuszcza jedynie ograniczone wykorzystanie rozpoznawania twarzy i podlega zabezpieczeniom, badania Amnesty International przeprowadzone w Nowym Jorku, na okupowanych terytoriach palestyńskich, w Hyderabadzie i gdzie indziej pokazują, że żadne zabezpieczenia nie mogą zapobiec szkodom dla praw człowieka, jakie wyrządza rozpoznawanie twarzy, co dlatego potrzebny jest całkowity zakaz”.

Żeby było jeszcze bardziej skomplikowanie, nie możemy się w to zagłębiać konkretny poczyniono kompromisy, ponieważ pełny zatwierdzony tekst ustawy o sztucznej inteligencji nie będzie dostępny przez kilka tygodni. Technicznie rzecz biorąc, prawdopodobnie jeszcze oficjalnie nie istnieje w UE w ogóle. Kompromisy w ramach tych porozumień często opierają się na zasadach, a nie na dokładnych sformułowaniach, mówi Michaela Veale’a, profesor nadzwyczajny ds. praw cyfrowych i regulacji na Wydziale Prawa UCL. Oznacza to, że udoskonalenie języka prawnego może zająć prawodawcy trochę czasu.

Ponadto, ponieważ osiągnięto jedynie tymczasowe porozumienie, ostateczne przepisy nadal mogą ulec zmianie. Nie jest dostępny oficjalny harmonogram, ale eksperci ds. polityki wydają się dość jednomyślni w swoich szacunkach: oczekuje się, że ustawa o sztucznej inteligencji wejdzie w życie w połowie 2024 r. po jej opublikowaniu w dzienniku urzędowym UE, a wszystkie przepisy będą wchodzić w życie stopniowo w ciągu najbliższych dwóch lat.

Daje to decydentom trochę czasu na dokładne ustalenie, w jaki sposób te zasady będą egzekwowane. Firmy AI mogą również wykorzystać ten czas, aby upewnić się, że ich produkty i usługi będą zgodne z przepisami, gdy przepisy wejdą w życie. Ostatecznie oznacza to, że możemy nie uregulować wszystkiego w ustawie o sztucznej inteligencji do połowy 2026 r. W latach rozwoju sztucznej inteligencji jest to: długi czas – więc do tego czasu możemy mieć do czynienia z zupełnie nowym zestawem problemów.




Źródło