Google wzywa do publicznej dyskusji na temat wykorzystania treści internetowych przez sztuczną inteligencję
Google ogłoszony dzisiaj inicjuje publiczną dyskusję na temat opracowania nowych protokołów i wytycznych dotyczących sposobu, w jaki systemy sztucznej inteligencji uzyskują dostęp do treści ze stron internetowych i z nich korzystają.
W poście na blogu Google chce zbadać „standardy techniczne i etyczne, aby umożliwić wydawcom internetowym wybór i kontrolę nad pojawiającymi się przypadkami użycia sztucznej inteligencji i badań”.
Ogłoszenie jest następstwem niedawnej konferencji Google I/O, podczas której firma omawiała nowe produkty AI i zasady AI, które mają na celu zapewnienie, że systemy AI są uczciwe, przejrzyste i odpowiedzialne.
Wpis na blogu Google brzmi:
„Wierzymy, że każdy korzysta z tętniącego życiem ekosystemu treści. Kluczem do tego jest to, że wydawcy internetowi mają sensowny wybór i kontrolę nad swoimi treściami oraz możliwości czerpania wartości z uczestnictwa w ekosystemie internetowym”.
Google przyznaje, że standardy techniczne, takie jak robots.txt, powstały prawie 30 lat temu i zostały opracowane przed nowoczesnymi technologiami sztucznej inteligencji, które mogą analizować dane internetowe na masową skalę.
Robots.txt pozwala wydawcom określić, w jaki sposób wyszukiwarki przeszukują i indeksują ich treść. Brakuje jednak mechanizmów określających, w jaki sposób systemy sztucznej inteligencji mogą wykorzystywać dane do trenowania algorytmów lub opracowywania nowych produktów.
Google zaprasza członków społeczności internetowych i AI, w tym wydawców internetowych, naukowców, organizacje społeczeństwa obywatelskiego i swoich partnerów, do przyłączenia się do publicznej dyskusji na temat opracowywania nowych protokołów i wytycznych etycznych.
Google stwierdza:
„Chcemy, aby był to otwarty proces i mamy nadzieję, że szerokie grono interesariuszy zaangażuje się w dyskusję na temat tego, jak zrównoważyć postęp sztucznej inteligencji z prywatnością, podmiotowością i kontrolą nad danymi”.
Dyskusja odzwierciedla rosnące uznanie, że technologie sztucznej inteligencji mogą wykorzystywać dane internetowe na nowe sposoby, które stawiają wyzwania etyczne dotyczące wykorzystania danych, prywatności i uprzedzeń.
Inicjując otwarty proces, Google dąży do rozwiązania opartego na współpracy, które odpowiada interesom firm technologicznych i twórców treści.
Wynik tych dyskusji może kształtować sposób, w jaki systemy sztucznej inteligencji wchodzą w interakcje i wykorzystują dane ze stron internetowych w nadchodzących latach.
„Sieć umożliwiła tak duży postęp, a sztuczna inteligencja może wykorzystać ten postęp” — mówi Google. „Ale musimy to naprawić”.
Krytyka metod gromadzenia danych przez Google
Ogłoszenie Google pojawia się, gdy spotyka się z krytyką za to, ile danych zebrało już z całej sieci, aby wyszkolić swoje systemy sztucznej inteligencji i modele językowe.
Te praktyki gromadzenia danych są określone w aktualizacji polityki prywatności Google.
Niektórzy członkowie społeczności SEO twierdzą, że wysiłki Google są zbyt małe i spóźnione.
Barry Adams kpił z ogłoszenia na Twitterze, powiedzenie:
„Teraz, gdy już przeszkoliliśmy naszych LLM w zakresie wszystkich twoich zastrzeżonych i chronionych prawem autorskim treści, w końcu zaczniemy myśleć o umożliwieniu ci rezygnacji z wszelkich przyszłych treści, które mają być wykorzystywane do uczynienia nas bogatymi”.
Inni twierdzą, że Google musi zrobić więcej, aby zebrać opinie w tym procesie.
Nate Hake, specjalista od marketingu turystycznego, tweetował:
„’Rozpoczęcie dyskusji’ wymaga pozwolenia drugiej stronie na POWIEDZENIE czegoś. To jest tylko formularz przechwytywania wiadomości e-mail. Brak pola do wyrażenia opinii. Nawet wiadomości potwierdzającej.”
Sztuczna inteligencja opiera się na danych — ale ile to za dużo?
Systemy sztucznej inteligencji potrzebują dużych ilości danych, aby funkcjonować, ulepszać i przynosić korzyści społeczeństwu. Jednak im więcej danych ma dostęp do sztucznej inteligencji, tym większe jest ryzyko dla prywatności.
Istnieją trudne kompromisy między umożliwieniem postępu AI a ochroną informacji o ludziach.
Toczy się debata na temat tego, czy ludzie powinni mieć możliwość rezygnacji z AI przy użyciu swoich publicznych danych w mediach społecznościowych. Niektórzy twierdzą, że jednostki powinny kontrolować swoje dane, podczas gdy inni twierdzą, że spowalnia to rozwój sztucznej inteligencji.
Obie strony przedstawiają ważne argumenty i daleko nam do konsensusu co do właściwego podejścia politycznego.
Patrząc w przyszłość
Wezwanie Google do dyskusji to krok we właściwym kierunku, ale firma musi dalej wdrażać otrzymane opinie.
Google nie jest sam w obliczu tych wyzwań. Każda firma technologiczna rozwijająca sztuczną inteligencję opiera się na danych zebranych z sieci. Dyskusja powinna obejmować całą branżę technologiczną, nie tylko Google.
Obraz wyróżniony: JDres/Shutterstock