Biznes

Indyjski rząd Modiego spieszy się z uregulowaniem sztucznej inteligencji przed wyborami krajowymi | Wiadomości dotyczące wyborów w Indiach w 2024 r

  • 13 marca, 2024
  • 7 min read
Indyjski rząd Modiego spieszy się z uregulowaniem sztucznej inteligencji przed wyborami krajowymi |  Wiadomości dotyczące wyborów w Indiach w 2024 r


Nowe Delhi Indie – Rząd Indii zwrócił się do firm technologicznych, aby wyraźnie skinęły głową przed publicznym wprowadzeniem na rynek „niewiarygodnych” lub „niedostatecznie przetestowanych” modeli lub narzędzi generatywnej sztucznej inteligencji. Ostrzegł również firmy, że ich produkty AI nie powinny generować reakcji, które „zagrażają integralności procesu wyborczego”, gdy kraj przygotowuje się do głosowania ogólnokrajowego.

Wysiłki rządu indyjskiego mające na celu uregulowanie sztucznej inteligencji stanowią powrót do jego wcześniejszego stanowiska polegającego na nieudzielnym podejściu, kiedy w kwietniu 2023 r. informował parlament, że nie rozważa żadnych przepisów regulujących sztuczną inteligencję.

Poradnik został wydany w zeszłym tygodniu przez indyjskie Ministerstwo Elektroniki i Technologii Informacyjnych (MeitY) na krótko po tym, jak Google Gemini spotkało się z prawicową reakcją na odpowiedź na pytanie: „Czy Modi jest faszystą?”.

W odpowiedzi podano, że indyjski premier Narendra Modi został „oskarżony o wdrażanie polityki, którą niektórzy eksperci określili jako faszystowską”, powołując się na „tłumienie sprzeciwu i stosowanie przez jego rząd przemocy wobec mniejszości religijnych” przez jego rząd.

Rajeev Chandrasekhar, młodszy minister technologii informatycznych, w odpowiedzi oskarżył należącą do Google firmę Gemini o naruszenie indyjskiego prawa. „Przepraszam, «nierzetelny» nie zwalnia spod prawa” – dodał. Chandrashekar stwierdził, że Google przeprosił za odpowiedź, twierdząc, że jest to wynik „zawodnego” algorytmu. Firma odpowiedziała, że ​​rozwiązuje problem i pracuje nad udoskonaleniem systemu.

Na Zachodzie duże firmy technologiczne często spotykały się z oskarżeniami o liberalne nastawienie. Zarzuty dotyczące stronniczości dotarły do ​​produktów generatywnej sztucznej inteligencji, w tym ChatGPT i Microsoft Copilot firmy OpenAI.

Tymczasem w Indiach zalecenia rządu wzbudziły obawy wśród przedsiębiorców zajmujących się sztuczną inteligencją, że ich rodzący się przemysł może zostać uduszony przez zbyt wiele regulacji. Inni obawiają się, że w związku ze zbliżającymi się wyborami krajowymi zalecenie może odzwierciedlać próbę rządu Modiego wybrania, które aplikacje AI zezwolić, a które zabronić, skutecznie dając mu kontrolę nad przestrzeniami internetowymi, w których narzędzia te mają wpływ.

Warto przeczytać!  Spada premia za ryzyko związane z ropą naftową | OilPrice.com

„Poczuj się jak raj”

Doradztwo nie jest aktem prawnym, który automatycznie wiąże przedsiębiorstwa. Jednak nieprzestrzeganie przepisów może skutkować ściganiem na mocy indyjskiej ustawy o technologii informacyjnej, powiedzieli prawnicy Al Jazeera. „To niewiążące zalecenie wydaje się bardziej polityczną pozą niż poważnym kształtowaniem polityki” – powiedział Mishi Choudhary, założyciel indyjskiego Centrum Prawa Wolności Oprogramowania. „Po wyborach będziemy świadkami znacznie poważniejszego zaangażowania. Daje nam to wgląd w sposób myślenia decydentów.”

Jednak już teraz poradnik wysyła sygnał, który może hamować innowacje, szczególnie w start-upach, powiedział Harsh Choudhry, współzałożyciel Sentra World, firmy oferującej rozwiązania AI z siedzibą w Bengaluru. „Jeśli każdy produkt sztucznej inteligencji wymaga zatwierdzenia, wydaje się to zadaniem niemożliwym również dla rządu” – powiedział. „Być może potrzebowali kolejnego bota GenAI (generatywnej sztucznej inteligencji), aby przetestować te modele” – dodał ze śmiechem.

Kilku innych liderów branży generatywnej sztucznej inteligencji również skrytykowało to zalecenie jako przykład nadmiernego zakresu regulacji. Martin Casado, komplementariusz amerykańskiej firmy inwestycyjnej Andreessen Horowitz, napisał na platformie mediów społecznościowych X, że posunięcie to było „parodią”, „antyinnowacyjnością” i „antypublicznością”.

Bindu Reddy, dyrektor generalny Abacus AI, napisał, że wraz z nowym zaleceniem „Indie właśnie pocałowały swoją przyszłość na pożegnanie!”

W obliczu tej reakcji Chandrashekar wydał wyjaśnienia w sprawie X, dodając, że rząd zwolni start-upy z konieczności ubiegania się o uprzednią zgodę na wdrożenie generatywnych narzędzi sztucznej inteligencji w „indyjskim Internecie” oraz że zalecenie ma zastosowanie wyłącznie do „istotnych platform”.

Ale chmura niepewności pozostaje. „Poradnik jest pełen dwuznacznych terminów, takich jak „niewiarygodny”, „nieprzetestowany”, [and] „Indyjski Internet”. Fakt, że konieczne było kilka wyjaśnień w celu wyjaśnienia zakresu, zastosowania i przeznaczenia, jest wyraźnym sygnałem, że praca została wykonana w pośpiechu” – powiedział Mishi Choudhary. „Ministrowie to kompetentni ludzie, ale nie mają środków niezbędnych do oceny modeli w celu wydania pozwoleń na działalność”.

Warto przeczytać!  Zachód ma plan wypchnięcia Rosji z rynku wzbogaconego uranu

„Nic dziwnego [has] przywołała poczucie raju licencyjnego z lat 80.” – dodała, odnosząc się do biurokratycznego systemu wymagania zezwoleń rządowych na prowadzenie działalności gospodarczej, panującego do początku lat 90. XX w., który tłumił wzrost gospodarczy i innowacje w Indiach.

Jednocześnie zwolnienia z doradztwa wyłącznie dla starannie wybranych start-upów mogą wiązać się z ich problemami – one również są podatne na wywoływanie politycznie stronniczych reakcji i halucynacji, gdy sztuczna inteligencja generuje błędne lub sfabrykowane wyniki. W rezultacie zwolnienie „rodzi więcej pytań niż odpowiedzi” – stwierdził Mishi.

Harsh Choudhry stwierdził, że jego zdaniem intencją rządu stojącą za rozporządzeniem było pociągnięcie firm zarabiających na narzędziach AI do odpowiedzialności za nieprawidłowe reakcje. „Ale podejście oparte na pozwoleniu może nie być najlepszym sposobem” – dodał.

Cienie deepfake’a

Decyzja Indii o uregulowaniu treści sztucznej inteligencji będzie miała również konsekwencje geopolityczne, argumentuje Shruti Shreya, starszy menedżer programu ds. regulacji platform w The Dialogue, zespole doradców zajmującym się polityką technologiczną.

„Dzięki szybko rosnącej bazie użytkowników Internetu polityka Indii może stanowić precedens dla podejścia innych krajów, szczególnie krajów rozwijających się, do regulacji treści AI i zarządzania danymi” – stwierdziła.

Analitycy twierdzą, że dla indyjskiego rządu zajmowanie się przepisami dotyczącymi sztucznej inteligencji jest trudnym zadaniem znalezienia równowagi.

Miliony Hindusów mają oddać swój głos w ogólnokrajowych wyborach, które odbędą się prawdopodobnie w kwietniu i maju. Wraz z pojawieniem się łatwo dostępnych i często bezpłatnych narzędzi generatywnej sztucznej inteligencji Indie stały się już placem zabaw dla zmanipulowanych mediów, co rzuciło cień na uczciwość wyborów. Główne partie polityczne w Indiach w dalszym ciągu wykorzystują fałszywe fałszywe informacje w kampaniach.

Warto przeczytać!  Akcje Pharma podskoczyły o 11% po wzroście zysków netto spółki o 910% kw./kw

Kamesh Shekar, starszy menedżer programu specjalizujący się w zarządzaniu danymi i sztucznej inteligencji w zespole doradców The Dialogue, powiedział, że niedawne doradztwo należy również postrzegać jako część trwających wysiłków rządu zmierzających do opracowania kompleksowych przepisów dotyczących generatywnej sztucznej inteligencji.

Wcześniej, w listopadzie i grudniu 2023 r., rząd Indii zwrócił się do firm z branży Big Tech o usunięcie fałszywych produktów w ciągu 24 godzin od złożenia skargi, opatrzenie etykietą zmanipulowanych mediów i podjęcie proaktywnych wysiłków w celu zwalczania dezinformacji – choć nie wspomniał o żadnych wyraźnych karach za takie przypadki. niestosując się do dyrektywy.

Ale Shekar również powiedział, że polityka, zgodnie z którą firmy muszą uzyskać zgodę rządu przed wprowadzeniem produktu na rynek, hamuje innowacje. „Rząd mógłby rozważyć utworzenie piaskownicy – ​​środowiska do testowania na żywo, w którym rozwiązania AI i uczestniczące podmioty mogą testować produkt bez wdrażania na dużą skalę w celu określenia jego niezawodności” – powiedział.

Nie wszyscy eksperci zgadzają się jednak z krytyką indyjskiego rządu.

Ponieważ technologia sztucznej inteligencji rozwija się w szybkim tempie, rządom często trudno jest za nią nadążać. Jednocześnie rządy rzeczywiście muszą wkroczyć w celu wprowadzenia regulacji, powiedział Hafiz Malik, profesor inżynierii komputerowej na Uniwersytecie Michigan, specjalizujący się w wykrywaniu deepfake’ów. Stwierdził, że pozostawienie firmom samoregulacji byłoby głupotą, dodając, że zalecenia rządu indyjskiego są krokiem we właściwym kierunku.

„Przepisy muszą zostać wprowadzone przez rządy”, powiedział, „ale nie powinny odbywać się kosztem innowacji”.

Ostatecznie jednak – dodał Malik – potrzebna jest większa świadomość społeczna.

Widzenie czegoś i wiara w to nie wchodzi już w grę” – powiedział Malik. „Dopóki społeczeństwo nie będzie świadome, problemu deepfake nie da się rozwiązać. Świadomość jest jedynym narzędziem pozwalającym rozwiązać bardzo złożony problem.”


Źródło