Technologia

OpenAI ma podwójne obawy dotyczące bezpieczeństwa w związku z aplikacją Mac Chatgpt i szerszymi praktykami cyberbezpieczeństwa – Firstpost

  • 5 lipca, 2024
  • 3 min read
OpenAI ma podwójne obawy dotyczące bezpieczeństwa w związku z aplikacją Mac Chatgpt i szerszymi praktykami cyberbezpieczeństwa – Firstpost


Integracja ChatGPT z usługami głównych graczy i postrzegany chaotyczny nadzór w OpenAI zaczynają tworzyć bardziej niepokojącą narrację na temat zdolności firmy do zarządzania i ochrony swoich danych. Źródło zdjęcia: AFP

OpenAI, firma stojąca za ChatGPT, znów znalazła się w centrum uwagi, ale tym razem z powodu problemów z bezpieczeństwem. Dwa ostatnie incydenty wzbudziły poważne obawy dotyczące sposobu, w jaki firma radzi sobie z cyberbezpieczeństwem, rzucając cień na jej reputację.

Pierwszy problem pojawił się na początku tego tygodnia, gdy inżynier i programista Swift Pedro José Pereira Vieito odkrył niepokojącą lukę w zabezpieczeniach aplikacji Mac ChatGPT. Vieito odkrył, że aplikacja przechowywała rozmowy użytkowników lokalnie w postaci zwykłego tekstu, zamiast je szyfrować.

Oznacza to, że potencjalnie wrażliwe dane mogą być łatwo dostępne dla innych aplikacji lub złośliwego oprogramowania na tym samym komputerze. Aplikacja, dostępna tylko na stronie internetowej OpenAI, omija App Store firmy Apple i jego wymagania dotyczące piaskownicy, które mają na celu ograniczenie potencjalnych luk w poszczególnych aplikacjach.

Sandboxing to kluczowa praktyka bezpieczeństwa, która zapobiega wpływowi luk w jednej aplikacji na inne na komputerze. Bez niego ryzyko ujawnienia poufnych informacji wzrasta. Po odkryciach Vieito, które później zostały zgłoszone przez The Verge, OpenAI wydało aktualizację, która dodała szyfrowanie do lokalnie przechowywanych czatów.

Warto przeczytać!  GPT-4 trafia do GitHub z Copilot X

Drugi problem pochodzi z 2023 r., ale nadal jest aktualny. Wiosną ubiegłego roku hakerowi udało się zinfiltrować wewnętrzne systemy wiadomości OpenAI, uzyskując dostęp do poufnych informacji o firmie. To naruszenie ujawniło potencjalne wewnętrzne słabości bezpieczeństwa, które mogłyby zostać wykorzystane przez złośliwych aktorów. Ówczesny kierownik programu technicznego OpenAI, Leopold Aschenbrenner, poruszył te kwestie z zarządem firmy, podkreślając ryzyko wykorzystania tych luk przez zagranicznych przeciwników.

Aschenbrenner twierdzi teraz, że został zwolniony za ujawnienie tych problemów bezpieczeństwa i ujawnienie informacji o naruszeniu. OpenAI jednak temu zaprzecza, stwierdzając, że jego zwolnienie nie było związane z sygnalizowaniem nieprawidłowości. Przedstawiciel OpenAI powiedział The New York Times, że chociaż firma podziela zaangażowanie Aschenbrennera w tworzenie bezpiecznej sztucznej inteligencji ogólnej (AGI), nie zgadza się z wieloma jego twierdzeniami dotyczącymi ich praktyk bezpieczeństwa.

Luki w zabezpieczeniach aplikacji oprogramowania nie są rzadkością w branży technologicznej, a naruszenia dokonywane przez hakerów są stałym zagrożeniem. Kontrowersyjne relacje między sygnalistami a ich byłymi pracodawcami również często trafiają na pierwsze strony gazet.

Jednak połączenie tych problemów w OpenAI, zwłaszcza biorąc pod uwagę powszechną adopcję ChatGPT, budzi poważne obawy. Integracja aplikacji z usługami przez głównych graczy i postrzegany chaotyczny nadzór w OpenAI zaczynają tworzyć bardziej niepokojącą narrację na temat zdolności firmy do zarządzania i ochrony swoich danych.

Warto przeczytać!  Poniżej tysiąca: Idealny power bank stał się (jeszcze bardziej) przyjazny dla kieszeni | Wiadomości technologiczne

Ostatnie incydenty podkreślają potrzebę solidnych środków cyberbezpieczeństwa i przejrzystych praktyk, szczególnie dla firmy będącej na czele rozwoju AI. W miarę jak OpenAI nadal radzi sobie z tymi wyzwaniami, szersze implikacje dla bezpieczeństwa danych i zaufania do technologii AI pozostają kluczowymi kwestiami zarówno dla firmy, jak i jej użytkowników.

Najnowsze wiadomości

Znajdź nas na YouTube

Subskrybuj


Źródło