Świat

Prawdziwa historia strony internetowej oskarżonej o podsycanie zamieszek w Southport

  • 8 sierpnia, 2024
  • 10 min read
Prawdziwa historia strony internetowej oskarżonej o podsycanie zamieszek w Southport


Getty Images Policjanci w strojach do tłumienia zamieszek w Sunderland, widziani z tyłu, blisko kamery, podczas gdy w oddali płonie przewrócony samochód, a wokół kręci się tłumZdjęcia Getty’ego

Policja stoi przed płonącym samochodem w Sunderland – jednym z kilku miast dotkniętych zamieszkami

Co łączy ojca mieszkającego w Lahaur w Pakistanie, amatora hokeja z Nowej Szkocji i mężczyznę o imieniu Kevin z Houston w Teksasie?

Wszystkie są powiązane z Channel3Now — stroną internetową, której historia podająca fałszywe nazwisko 17-latka oskarżonego o atak w Southport była szeroko cytowana w popularnych postach na X. Channel3Now błędnie zasugerował również, że napastnik był osobą ubiegającą się o azyl, która przybyła do Wielkiej Brytanii łodzią w zeszłym roku.

Fakt ten, w połączeniu z nieprawdziwymi doniesieniami, jakoby napastnik był muzułmaninem, został powszechnie uznany za przyczynę zamieszek w Wielkiej Brytanii, z których niektóre wymierzone były w meczety i społeczności muzułmańskie.

BBC odnalazło kilka osób powiązanych z Channel3Now, porozmawiało z ich znajomymi i współpracownikami, którzy potwierdzili, że są to prawdziwe osoby, oraz przesłuchało osobę, która twierdzi, że jest „kierownictwem” witryny.

To, co znalazłem, wydaje się być operacją komercyjną próbującą agregować wiadomości o przestępstwach, zarabiając jednocześnie pieniądze w mediach społecznościowych. Nie znalazłem żadnych dowodów potwierdzających twierdzenia, że ​​dezinformacja Channel3Now może być powiązana z państwem rosyjskim.

Osoba podająca się za przedstawiciela zarządu Channel3Now powiedziała mi, że publikacja fałszywego nazwiska „nie powinna była mieć miejsca, ale była błędem, a nie działaniem celowym”.

Fałszywy artykuł nie miał podanego autora i nie jest jasne, kto dokładnie go napisał.

———

Amator hokeja w Nowej Szkocji o imieniu James jest pierwszą osobą, którą namierzyłem, która ma link do Channel3Now. Jego nazwisko pojawia się jako rzadki podpis na stronie w innym artykule, a jego zdjęcie pojawia się na powiązanej stronie LinkedIn.

Konto na Facebooku powiązane z Jamesem ma tylko czterech znajomych, z których jeden nazywa się Farhan. Jego profil na Facebooku mówi, że jest dziennikarzem serwisu.

Wysyłam wiadomości do dziesiątek ich obserwujących. Konto w mediach społecznościowych szkoły, w której James grał w hokeja, i jeden z jego przyjaciół potwierdzają mi, że jest on prawdziwą osobą, która ukończyła szkołę cztery lata temu. Kiedy się z nim kontaktuję, jego przyjaciel mówi, że James chce wiedzieć „czego dotyczyłoby jego zaangażowanie w artykule?”. Po mojej odpowiedzi nie ma zaprzeczenia, że ​​James jest powiązany ze stroną — a jego przyjaciel przestaje odpowiadać.

Byli współpracownicy Farhana, kilku z nich mieszka w Pakistanie, potwierdzają jego tożsamość. Na swoich profilach w mediach społecznościowych publikuje informacje o swojej wierze islamskiej i swoich dzieciach. Jego nazwisko nie pojawia się w fałszywym artykule.

Warto przeczytać!  Seul twierdzi, że Korea Północna wysłała w stronę Korei Południowej więcej balonów ze śmieciami

Niedługo po tym, jak wysłałem wiadomość, Farhan zablokował mnie na Instagramie, ale w końcu otrzymałem odpowiedź na oficjalny adres e-mail Channel3Now.

Zarchiwizowany zrzut ekranu artykułu Channel3Now, w którym podano fałszywe nazwisko napastnika z Southport, błędnie twierdząc, że był on osobą ubiegającą się o azyl i niepoprawnie mówiąc, że był na "lista obserwacyjna MI6"

Channel3Now później przeprosił za błędne podanie nazwiska napastnika z Southport

Osoba, która się z nim kontaktuje, mówi, że nazywa się Kevin i mieszka w Houston w Teksasie. Nie chce ujawnić swojego nazwiska i nie jest jasne, czy Kevin jest rzeczywiście tym, za kogo się podaje, ale zgadza się odpowiadać na pytania za pośrednictwem poczty e-mail.

Kevin twierdzi, że rozmawia ze mną z „głównego biura” serwisu w USA, co pasuje zarówno do godzin publikacji postów na niektórych profilach serwisu w mediach społecznościowych, jak i do godzin, w których Kevin odpowiada na moje e-maile.

Początkowo podpisuje się jako „redaktor naczelny”, zanim mówi mi, że jest w rzeczywistości „producentem weryfikacji”. Odmawia podania nazwiska właściciela strony, który, jak mówi, martwi się „nie tylko o siebie, ale także o wszystkich, którzy dla niego pracują”.

Kevin twierdzi, że w USA, Wielkiej Brytanii, Pakistanie i Indiach pracuje „ponad 30” osób, zazwyczaj rekrutowanych z serwisów dla freelancerów – w tym Farhan i James. Mówi, że Farhan w szczególności nie był zamieszany w fałszywą historię Southport, za którą serwis publicznie przeprosił i obwinił „nasz zespół z siedzibą w Wielkiej Brytanii”.

W następstwie fałszywych oskarżeń udostępnionych przez Channel3Now, oskarżono go o powiązania z państwem rosyjskim, opierając się na starych filmach zamieszczonych na jego kanale YouTube w języku rosyjskim.

Kevin mówi, że strona kupiła dawny rosyjskojęzyczny kanał na YouTube, który skupiał się na rajdach samochodowych „wiele lat temu”, a później zmieniła nazwę.

Przez około sześć lat na koncie nie opublikowano żadnych filmów, zanim zaczęto przesyłać treści związane z Pakistanem, gdzie mieszka Farhan i gdzie serwis, jak przyznaje, ma swoich autorów.

„To, że kupiliśmy kanał na YouTube od rosyjskiego sprzedawcy, nie oznacza, że ​​mamy z nim jakiekolwiek powiązania” – mówi Kevin.

„Jesteśmy niezależną witryną internetową poświęconą wiadomościom cyfrowym, obejmującą wiadomości z całego świata”.

Można kupić i ponownie wykorzystać kanał, który został już zmonetyzowany przez YouTube. Może to być szybki sposób na zbudowanie widowni, umożliwiając kontu natychmiastowe rozpoczęcie zarabiania pieniędzy.

Warto przeczytać!  90-letnia kobieta zostaje uratowana żywa 5 dni po śmiertelnym trzęsieniu ziemi w Japonii

„Jak najwięcej historii”

Chociaż nie znalazłem żadnych dowodów na poparcie tych twierdzeń o rosyjskich linkach do Channel3Now, prokremlowskie kanały Telegramu rzeczywiście udostępniały i wzmacniały fałszywe posty witryny. To taktyka, którą często stosują.

Kevin powiedział, że strona jest operacją komercyjną i „relacjonowanie jak największej liczby historii” pomaga jej generować dochód. Większość jej historii jest dokładna – najwyraźniej czerpiąc z wiarygodnych źródeł na temat strzelanin i wypadków samochodowych w USA. Jednak strona udostępniła dalsze fałszywe spekulacje na temat napastnika z Southport, a także osoby, która próbowała zabić Donalda Trumpa.

Po fałszywej historii Southport i medialnym doniesieniu o Channel3Now, Kevin mówi, że jego kanał YouTube i prawie wszystkie „wiele stron na Facebooku” zostały zawieszone, ale nie jego konta X. Strona na Facebooku, która wyłącznie udostępnia treści z witryny o nazwie Daily Felon, również pozostaje aktywna.

Kevin twierdzi, że winę za burzę w mediach społecznościowych związaną z podejrzanym z Southport i późniejsze zamieszki nie można zrzucić wyłącznie na „małe konto na Twitterze”, które popełniło „błąd”.

Do pewnego stopnia ma rację. Nieprawidłowa historia Channel3Now stała się źródłem cytowanym przez wiele kont w mediach społecznościowych, co sprawiło, że fałszywe oskarżenia stały się wirusowe.

Kilka z nich miało siedzibę w Wielkiej Brytanii i USA i ma historię publikowania dezinformacji na tematy takie jak pandemia, szczepionki i zmiany klimatu. Profile te były w stanie zgromadzić znaczną liczbę obserwujących i przekazać swoje treści większej liczbie osób, zmiany, które Elon Musk wprowadził po zakupie Twittera.

Reuters Mężczyzna w czarnej bluzie z kapturem, z twarzą zasłoniętą okularami przeciwsłonecznymi i kominiarką rzuca kijem, podczas gdy w tle widać przewrócone śmietniki, pożar i duży tłum ludziAgencja Reutersa

W związku z wybuchami zamieszek dokonano ponad 400 aresztowań

Jeden profil – należący do kobiety o imieniu Bernadette Spofforth – został oskarżony o zamieszczenie pierwszego posta zawierającego fałszywe nazwisko napastnika z Southport. Zaprzeczyła, że ​​była jego źródłem, twierdząc, że widziała to nazwisko w innym poście, który został już usunięty.

W rozmowie telefonicznej z BBC powiedziała, że ​​była „przerażona” atakiem, ale usunęła swój post, gdy tylko zorientowała się, że jest fałszywy. Powiedziała, że ​​„nie była zmotywowana zarabianiem pieniędzy” na swoim koncie.

„Po co miałabym wymyślać coś takiego? Nie mam nic do zyskania, a wszystko do stracenia” – powiedziała. Potępiła ostatnią przemoc.

Warto przeczytać!  Iranowi brakuje gazu pomimo ogromnych rezerw – DW – 14.01.2023

Pani Spofforth wcześniej udostępniała posty, w których podnosiła kwestie dotyczące blokady i środków mających na celu osiągnięcie zerowej emisji netto w zakresie zmian klimatycznych. Jednak jej profil został tymczasowo usunięty przez Twittera w 2021 r. po oskarżeniach o promowanie dezinformacji na temat szczepionki przeciwko Covid-19 i pandemii. Zaprzeczyła tym twierdzeniom i powiedziała, że ​​wierzy, że Covid jest prawdziwy.

Od czasu przejęcia władzy przez pana Muska jej posty regularnie notują ponad milion wyświetleń.

Fałszywe twierdzenie, które pani Spofforth opublikowała na temat zamachowca z Southport, zostało szybko udostępnione dalej i podchwycone przez luźną grupę osób zajmujących się teoriami spiskowymi oraz użytkowników, którzy w przeszłości szerzyli poglądy antyimigracyjne i skrajnie prawicowe.

Wielu z nich kupiło niebieskie znaczniki, co odkąd pan Musk przejął Twittera, sprawiło, że ich posty mają większą widoczność.

Kolejna ze zmian wprowadzonych przez Muska w systemie X sprawiła, że ​​promowanie tych idei może być opłacalne zarówno dla kont propagujących teorie spiskowe, jak i dla kont nastawionych na cele komercyjne, takich jak Channel3Now.

Miliony wyświetleń

Niektóre profile tego typu zgromadziły miliony wyświetleń w ciągu ostatniego tygodnia, publikując posty o atakach w Southport i późniejszych zamieszkach. „Podział przychodów z reklam” X oznacza, że ​​użytkownicy z niebieskimi znacznikami mogą zarabiać część przychodów z reklam w swoich odpowiedziach.

Szacunki użytkowników z liczbą obserwujących mniejszą niż pół miliona, którzy w ten sposób wygenerowali dochód, mówią, że konta mogą zarobić 10-20 USD za milion wyświetleń lub wyświetleń na X. Niektóre z tych kont udostępniających dezinformację gromadzą ponad milion wyświetleń niemal na każdy post i udostępniają posty kilka razy dziennie.

Inne firmy mediów społecznościowych – poza X – również pozwalają użytkownikom zarabiać na wyświetleniach. Ale YouTube, TikTok, Instagram i Facebook wcześniej wycofały monetyzację lub zawiesiły niektóre profile publikujące treści naruszające ich wytyczne dotyczące dezinformacji. Poza zasadami dotyczącymi fałszywych treści AI, X nie ma wytycznych dotyczących dezinformacji.

Mimo że politycy apelowali do firm mediów społecznościowych o podjęcie większych działań w obliczu zamieszek, niedawno uchwalona w Wielkiej Brytanii ustawa o bezpieczeństwie w Internecie nie reguluje obecnie kwestii dezinformacji, gdyż pojawiły się obawy, że może to ograniczyć wolność słowa.

Ponadto, jak odkryłem podczas śledzenia autorów Channel3Now, osoby zamieszane w publikowanie fałszywych informacji często przebywają za granicą, co znacznie utrudnia podjęcie przeciwko nim działań.

Zamiast tego, moc radzenia sobie z tego typu treścią leży teraz w rękach samych firm mediów społecznościowych. X nie odpowiedział na prośbę BBC o komentarz.


Źródło