Świat

Unijni decydenci ustalają zasady dotyczące modeli sztucznej inteligencji, kłócą się z egzekwowaniem prawa – EURACTIV.com

  • 7 grudnia, 2023
  • 6 min read
Unijni decydenci ustalają zasady dotyczące modeli sztucznej inteligencji, kłócą się z egzekwowaniem prawa – EURACTIV.com


Po 22 godzinach intensywnych negocjacji decydenci UE osiągnęli tymczasowe porozumienie w sprawie zasad dotyczących najpotężniejszych modeli sztucznej inteligencji, ale silny spór w rozdziale dotyczącym egzekwowania prawa zmusił wyczerpanych urzędników do ogłoszenia przerwy.

Ustawa o sztucznej inteligencji to przełomowy projekt ustawy regulujący sztuczną inteligencję w oparciu o jej zdolność do wyrządzania szkód. Sprawa znajduje się na ostatnim etapie procesu legislacyjnego, ponieważ Komisja Europejska, Rada i Parlament spotykają się w ramach tzw. rozmów trójstronnych w celu uzgodnienia ostatecznych przepisów.

Ostatnie rozmowy trójstronne rozpoczęły się w środę (6 grudnia) i trwały niemal nieprzerwanie przez cały dzień, aż do ogłoszenia przerwy na piątek rano. W pierwszej części negocjacji osiągnięto porozumienie w sprawie uregulowania potężnych modeli sztucznej inteligencji.

Zakres

Definicja AI zawarta w rozporządzeniu uwzględnia wszystkie główne elementy definicji OECD, choć nie powtarza jej dosłownie.

W ramach tymczasowego porozumienia bezpłatne oprogramowanie o otwartym kodzie źródłowym zostanie wyłączone z zakresu rozporządzenia, chyba że będzie to system wysokiego ryzyka, zabronione aplikacje lub rozwiązanie oparte na sztucznej inteligencji, które może spowodować manipulację.

Na stole negocjatorów po przerwie pojawi się kwestia wyłączenia związanego z bezpieczeństwem narodowym, gdyż kraje UE pod przewodnictwem Francji zwróciły się o szerokie wyłączenie dla wszelkich systemów sztucznej inteligencji wykorzystywanych do celów wojskowych lub obronnych, w tym dla wykonawców zewnętrznych.

Kolejną kwestią do omówienia jest to, czy rozporządzenie będzie miało zastosowanie do systemów sztucznej inteligencji, które były na rynku przed jego wejściem w życie, jeśli ulegną one istotnej zmianie.

Modele fundamentów

Zgodnie z dokumentem kompromisowym, do którego dostała się Euractiv, utrzymano podejście wielopoziomowe z automatyczną kategoryzacją jako „systemową” w przypadku modeli, które trenowano z mocą obliczeniową powyżej 10–25.

Warto przeczytać!  Xi naciska na Putina, aby uzyskać większe rabaty na gaz

Nowy załącznik będzie zawierał kryteria, na podstawie których Urząd ds. AI będzie mógł podejmować jakościowe decyzje dotyczące wyznaczenia z urzędu lub w oparciu o kwalifikowany alert panelu naukowego. Kryteria obejmują liczbę użytkowników biznesowych i parametry modelu i mogą być aktualizowane w oparciu o rozwój technologiczny.

Obowiązki dotyczące przejrzystości będą miały zastosowanie do wszystkich modeli, w tym publikowanie wystarczająco szczegółowego podsumowania danych szkoleniowych „bez uszczerbku dla tajemnic handlowych”. Treści generowane przez sztuczną inteligencję będą musiały być natychmiast rozpoznawalne.

Co ważne, niesystemowe, wstępnie wytrenowane modele mogą uniknąć obowiązków horyzontalnych, jeśli „zostaną udostępnione społeczeństwu na podstawie licencji umożliwiającej dostęp, użytkowanie, modyfikację i dystrybucję modelu oraz którego parametry […] są udostępniane publicznie”.

W przypadku modeli najwyższego poziomu obowiązki obejmują ocenę modelu, ocenę i śledzenie ryzyk systemowych, ochronę cyberbezpieczeństwa oraz raportowanie zużycia energii przez model.

Kodeksy postępowania mają jedynie uzupełniać wiążące obowiązki do czasu wprowadzenia zharmonizowanych standardów technicznych, a Komisja będzie mogła interweniować w drodze aktów delegowanych, jeśli proces będzie trwał zbyt długo.

Zarządzanie

W Komisji zostanie utworzone Biuro AI w celu egzekwowania przepisów dotyczących modelu podstawowego. Instytucje UE mają złożyć wspólną deklarację, że Biuro AI będzie miało wydzieloną linię budżetową.

Warto przeczytać!  „New York Times” wywołuje oburzenie, zamieszczając artykuł burmistrza Hamasu

Nad systemami AI będą nadzorować właściwe organy krajowe, które zostaną zebrane w Europejskiej Radzie ds. Sztucznej Inteligencji, aby zapewnić spójne stosowanie prawa.

Forum doradcze zgromadzi opinie zainteresowanych stron, w tym społeczeństwa obywatelskiego. Powołano panel naukowy złożony z niezależnych ekspertów, który ma doradzać w zakresie egzekwowania rozporządzenia, wskazywać potencjalne ryzyko systemowe i informować o klasyfikacji modeli sztucznej inteligencji obarczonych ryzykiem systemowym.

Zakazane praktyki

Ustawa o sztucznej inteligencji zawiera listę aplikacji zakazanych, ponieważ uważa się, że stanowią one niedopuszczalne ryzyko. Potwierdzone dotychczas zakazy dotyczą technik manipulacyjnych, systemów wykorzystujących luki w zabezpieczeniach, punktacji społecznościowej i masowego skrobania wizerunków twarzy.

Parlament Europejski zaproponował jednak znacznie dłuższą listę zakazanych aplikacji i spotkał się z ostrym sprzeciwem Rady. Według kilku źródeł zaznajomionych ze sprawą posłowie do Parlamentu Europejskiego byli naciskani, aby zaakceptowali porozumienie pakietowe, zdaniem Euractiv, które jest niezwykle zbliżone do stanowiska Rady.

Parlamentarzyści byli w tej sprawie podzieleni – centroprawicowa Europejska Partia Ludowa, współsprawozdawca Dragoș Tudorache i przewodnicząca grupy parlamentarnej Socjaldemokratów Iratxe García nalegały na przyjęcie porozumienia.

Tekst Rady chce zakazać systemów kategoryzacji biometrycznej w oparciu o wrażliwe cechy osobowe, takie jak rasa, opinie polityczne i przekonania religijne, „chyba że cechy te mają bezpośredni związek z konkretnym przestępstwem lub zagrożeniem”.

Warto przeczytać!  Rosja właśnie zdyskwalifikowała jedynego poważnego przeciwnika wyborczego Putina

Podane przykłady dotyczyły przestępstw na tle religijnym lub politycznym. Mimo to prezydencja nalegała również na utrzymanie profilowania rasowego.

Chociaż lewicowi prawodawcy chcą zakazać działań policyjnych wykorzystujących predykcje, propozycja Rady ogranicza ten zakaz do dochodzeń opartych wyłącznie na przewidywaniach systemu, a nie do spraw, w przypadku których istnieje uzasadnione podejrzenie udziału w działalności przestępczej.

Parlament wprowadził także zakaz stosowania oprogramowania do rozpoznawania emocji w miejscu pracy, edukacji, egzekwowaniu prawa i kontroli migracji. Rada jest skłonna zaakceptować je jedynie w dwóch pierwszych obszarach, z wyjątkiem względów medycznych lub bezpieczeństwa.

Kolejnym kontrowersyjnym tematem jest wykorzystanie zdalnej identyfikacji biometrycznej (RBI). Posłowie do Parlamentu Europejskiego zgodzili się na odejście od całkowitego zakazu na rzecz wąskich wyjątków związanych z poważnymi przestępstwami. Rada nalega, aby dać organom ścigania większe pole manewru i sprawić, by korzystanie ex post stało się zastosowaniem obarczonym wysokim ryzykiem.

Dodatkowa otwarta kwestia dotyczy tego, czy zakazy te powinny mieć zastosowanie wyłącznie do systemów używanych w Unii, czy też uniemożliwiać przedsiębiorstwom mającym siedzibę w UE sprzedaż tych zakazanych aplikacji za granicą.

[Edited by Zoran Radosavljevic]

Przeczytaj więcej z EURACTIV




Źródło