Technologia

Indian Edtech budzi się do GPT-4, regulatory nie śpią

  • 31 marca, 2023
  • 6 min read
Indian Edtech budzi się do GPT-4, regulatory nie śpią


Dzisiaj znajdujemy się w interesującej fazie cyklu AI. Wszystkie przedsiębiorstwa, niezależnie od branży, w której działają, chcą kawałka generatywnego tortu AI. Kilka dni temu Boris Power, członek personelu technicznego OpenAI, wybrał Indie, mówiąc, że to kraj, w którym GPT-4 będzie miał największy wpływ. Indyjski sektor edtech już z wielkim entuzjazmem wskoczył na modę GPT-4.

Niedawno firma edukacyjna Khan Academy ogłosiła wprowadzenie korepetytora sztucznej inteligencji i asystenta klasowego o nazwie Khanmigo, opartego na GPT-4. Organizacja non-profit wierzy, że GPT-4 można wykorzystać do zapewnienia uczniom dostosowanych doświadczeń edukacyjnych w zależności od ich możliwości uczenia się i rozumienia.

Khan Academy, która działa również w Indiach, wkrótce udostępni wszystkim swojego nauczyciela AI. Inne start-upy edtech w Indiach również wydają się podążać podobną ścieżką. Jednak sektor edtech w samych Indiach nadal pozostaje nieuregulowany. Wraz z pojawieniem się GPT-4 potrzeba regulacji została jeszcze bardziej zwiększona.

Regulamin EdTechu

Sektor edtech w Indiach rozkwitł w czasie pandemii. Chociaż ułatwiło to szerszy dostęp do edukacji niezależnie od ograniczeń geograficznych i językowych, branża edtech wzbudziła również obawy dotyczące nieetycznych praktyk sprzedaży, niewystarczających mechanizmów dochodzenia roszczeń i nadmiernej komercjalizacji sektora edukacyjnego.


Pobierz naszą aplikację mobilną


(Źródło: Prognoza wielkości rynku Ed Tech w Indiach na rok 2025)

Od dłuższego czasu wśród różnych interesariuszy rośnie zapotrzebowanie na wdrożenie polityki edukacji technologicznej w Indiach. Teraz, wraz z coraz szybszym rozwojem sztucznej inteligencji, potrzeba jest jeszcze większa.

„Coraz większe wykorzystanie sztucznej inteligencji przez firmy edtech w Indiach rodzi potrzebę regulacji w tym sektorze. Technologie oparte na sztucznej inteligencji w edukacji mogą zmienić sposób, w jaki uczniowie się uczą, ale także podnoszą

Warto przeczytać!  Google ogłasza nowy generatywny skład sztucznej inteligencji przed rzekomym debiutem GPT-4 Microsoftu

obawy dotyczące prywatności, bezpieczeństwa, stronniczości i względów etycznych” – powiedział rzecznik Satya Muley, założyciel Satya Muley & Co. CEL.

W związku z tym Internet and Mobile Association of India (IAMAI) ogłosiło, że utworzy India Edtech Consortium (IEC), niezależny i samorządny organ promujący samoregulację wśród firm edtech. IEC stworzy Kodeks Postępowania dla firm edtech i ustanowi system dochodzenia roszczeń w celu rozpatrywania skarg konsumentów.

„Jednak to samo niewiele mówiło o korzystaniu z systemów sztucznej inteligencji przez te startupy edtech i względach etycznych, którymi powinni się kierować. Wraz z bezprecedensowym rozwojem sektora sztucznej inteligencji i wprowadzeniem potężnych narzędzi, takich jak GPT-4, istnieje potrzeba ochrony interesariuszy przed prawdopodobnymi negatywnymi skutkami takiej sztucznej inteligencji” – Aditi Seetha, kierownik programu w Dialogue, think tanku zajmującym się polityką publiczną , powiedział CEL.

Adresowanie uprzedzeń

Chociaż wykorzystanie sztucznej inteligencji w edtech ma potencjał, może również prowadzić do uprzedzeń. Bardzo ważne jest, abyśmy upewnili się, że modele AI są wolne od jakichkolwiek uprzedzeń. Stwierdzono, że ChatGPT, szalenie popularny chatbot firmy OpenAI, również jest stronniczy, wykazując przykłady bycia pro-środowiskowym i lewicowo-libertariańskim.

Ponieważ prawie nie ma wiedzy na temat GPT-4, w tym zbiorów danych, na których został przeszkolony, wykorzystanie go do celów edukacyjnych może być ryzykowną propozycją. „Algorytmy sztucznej inteligencji mogą łatwo być stronnicze wobec pewnych grup uczniów, takich jak uczniowie ze środowisk defaworyzowanych lub z trudnościami w uczeniu się, co może prowadzić do dyskryminacji” – powiedział Muley.

CEL skontaktowali się z Khan Academy, aby dowiedzieć się, jak planują sprostać tym wyzwaniom, ale nie otrzymali odpowiedzi.

Warto przeczytać!  Nowa technologia logowania do systemu iOS sprawia, że ​​włamanie do iCloud jest bardzo trudne

Ponadto potrzebne są regulacje gwarantujące, że technologie oparte na sztucznej inteligencji w edukacji będą przejrzyste, możliwe do wyjaśnienia i rozliczalne. „Oznacza to, że uczniowie, nauczyciele i inni interesariusze powinni być w stanie zrozumieć, jak działają te systemy, w jaki sposób podejmowane są decyzje i kto jest odpowiedzialny za wszelkie błędy lub uprzedzenia” – dodał Muley.

Inne wyzwania

Wręcz przeciwnie, Girish Singhania, dyrektor generalny EduBridge uważa, że ​​używanie GPT-4 może ograniczać zdolności poznawcze ucznia. „Należy dołożyć starań, aby uregulować korzystanie z narzędzia i upewnić się, że jest ono wykorzystywane wyłącznie w celu zapewnienia płynnej i wciągającej nauki bez uszczerbku dla rozwoju poznawczego ucznia” – powiedział. CEL.

Chociaż widzieliśmy już wiele przypadków użycia GPT-4, byłoby wskazane, aby branża edtech działała ostrożnie. LLM są świetne w przewidywaniu następnego słowa w sekwencji, jednak tak naprawdę nie rozumieją kontekstu. Ta sama krytyka była wielokrotnie kierowana przeciwko LLM przez wielu ekspertów AI. „LLM nie mają pojęcia o rzeczywistości, którą opisuje język” – powiedział Yann LeCun, główny naukowiec AI w firmie Meta.

Modele mają charakter halucynacyjny. Chociaż OpenAI twierdzi, że halucynacje GPT-4 są znacznie mniejsze w porównaniu z ChatGPT, który jest zbudowany na architekturze GPT3.5, nadal ma halucynacje.

„Dokładność i niezawodność automatycznie generowanych odpowiedzi z tych AI nie jest w pełni dowodowa, ponieważ mogą one wykazywać pewne uprzedzenia lub nawet niedokładne informacje w zależności od zestawu danych, którym są karmione. Może to mieć negatywny wpływ na ogólne samopoczucie uczniów, a nawet ich wyniki w nauce” – powiedział Seetha.

Potrzeba etyki AI

Organizacja Narodów Zjednoczonych do spraw Oświaty, Nauki i Kultury (UNESCO) w swoim raporcie zasugerowała, że ​​powinny istnieć ramy regulacyjne dotyczące wykorzystania sztucznej inteligencji w edukacji, a rząd musi uznać etykę w sztucznej inteligencji za najwyższy priorytet.

Warto przeczytać!  Fora XDA są teraz otwarte dla Samsunga Galaxy S23, A54, M52, RedMagic 8 Pro i Vivo X90 Pro Plus

„Ponieważ sektor edtech rozwija się w szybkim tempie, istnieje jeszcze większa potrzeba budowania zaufania społeczeństwa do korzystania ze sztucznej inteligencji” – powiedział Seetha.

UE jest jednym z nielicznych regionów, które opracowały wytyczne etyczne dotyczące wykorzystania sztucznej inteligencji i danych w nauczaniu i uczeniu się dla nauczycieli. Podobnie w Wielkiej Brytanii Institute for Ethical AI in Education opublikował raport, w którym doradza, w jaki sposób szkoły i instytucje edukacyjne mogą bezpiecznie i etycznie korzystać z systemów AI.

„W Indiach Indyjska Rada Badań Medycznych (ICMR) opublikowała niedawno wytyczne etyczne dotyczące stosowania sztucznej inteligencji w badaniach biomedycznych i opiece zdrowotnej, wprowadzając pewne procesy etyczne związane ze sztuczną inteligencją w opiece zdrowotnej. Podobne podejście można zastosować w sektorze edtech, aby stawić czoła wyzwaniom związanym z wykorzystaniem sztucznej inteligencji w edukacji” – powiedział Seetha.

Niezależnie od wszystkich negatywów, Singhania uważa również, że sztuczna inteligencja ma bardzo korzystne cechy, które sprawiają, że wytyczne regulacyjne są niezbędne. „Odnosi się to szczególnie do edukacji, gdzie uczniowie mogą tworzyć treści w ciągu kilku sekund bez inwestowania w cnotę ciężkiej pracy w celu badania, uczenia się i stosowania logiki w celu uzyskania organicznych opinii” – powiedział.

Biorąc pod uwagę szybki postęp i pospieszne wdrażanie sztucznej inteligencji, nie tylko w edtech, ale we wszystkich branżach, konieczne jest, aby Indie przedstawiły wytyczne i zasady etyczne w celu złagodzenia powiązanych zagrożeń, które z pewnością wiążą się z tymi zaletami.


Źródło