Prawdziwa historia strony internetowej oskarżonej o podsycanie zamieszek w Southport
Co łączy ojca mieszkającego w Lahaur w Pakistanie, amatora hokeja z Nowej Szkocji i mężczyznę o imieniu Kevin z Houston w Teksasie?
Wszystkie są powiązane z Channel3Now — stroną internetową, której historia podająca fałszywe nazwisko 17-latka oskarżonego o atak w Southport była szeroko cytowana w popularnych postach na X. Channel3Now błędnie zasugerował również, że napastnik był osobą ubiegającą się o azyl, która przybyła do Wielkiej Brytanii łodzią w zeszłym roku.
Fakt ten, w połączeniu z nieprawdziwymi doniesieniami, jakoby napastnik był muzułmaninem, został powszechnie uznany za przyczynę zamieszek w Wielkiej Brytanii, z których niektóre wymierzone były w meczety i społeczności muzułmańskie.
BBC odnalazło kilka osób powiązanych z Channel3Now, porozmawiało z ich znajomymi i współpracownikami, którzy potwierdzili, że są to prawdziwe osoby, oraz przesłuchało osobę, która twierdzi, że jest „kierownictwem” witryny.
To, co znalazłem, wydaje się być operacją komercyjną próbującą agregować wiadomości o przestępstwach, zarabiając jednocześnie pieniądze w mediach społecznościowych. Nie znalazłem żadnych dowodów potwierdzających twierdzenia, że dezinformacja Channel3Now może być powiązana z państwem rosyjskim.
Osoba podająca się za przedstawiciela zarządu Channel3Now powiedziała mi, że publikacja fałszywego nazwiska „nie powinna była mieć miejsca, ale była błędem, a nie działaniem celowym”.
Fałszywy artykuł nie miał podanego autora i nie jest jasne, kto dokładnie go napisał.
———
Amator hokeja w Nowej Szkocji o imieniu James jest pierwszą osobą, którą namierzyłem, która ma link do Channel3Now. Jego nazwisko pojawia się jako rzadki podpis na stronie w innym artykule, a jego zdjęcie pojawia się na powiązanej stronie LinkedIn.
Konto na Facebooku powiązane z Jamesem ma tylko czterech znajomych, z których jeden nazywa się Farhan. Jego profil na Facebooku mówi, że jest dziennikarzem serwisu.
Wysyłam wiadomości do dziesiątek ich obserwujących. Konto w mediach społecznościowych szkoły, w której James grał w hokeja, i jeden z jego przyjaciół potwierdzają mi, że jest on prawdziwą osobą, która ukończyła szkołę cztery lata temu. Kiedy się z nim kontaktuję, jego przyjaciel mówi, że James chce wiedzieć „czego dotyczyłoby jego zaangażowanie w artykule?”. Po mojej odpowiedzi nie ma zaprzeczenia, że James jest powiązany ze stroną — a jego przyjaciel przestaje odpowiadać.
Byli współpracownicy Farhana, kilku z nich mieszka w Pakistanie, potwierdzają jego tożsamość. Na swoich profilach w mediach społecznościowych publikuje informacje o swojej wierze islamskiej i swoich dzieciach. Jego nazwisko nie pojawia się w fałszywym artykule.
Niedługo po tym, jak wysłałem wiadomość, Farhan zablokował mnie na Instagramie, ale w końcu otrzymałem odpowiedź na oficjalny adres e-mail Channel3Now.
Osoba, która się z nim kontaktuje, mówi, że nazywa się Kevin i mieszka w Houston w Teksasie. Nie chce ujawnić swojego nazwiska i nie jest jasne, czy Kevin jest rzeczywiście tym, za kogo się podaje, ale zgadza się odpowiadać na pytania za pośrednictwem poczty e-mail.
Kevin twierdzi, że rozmawia ze mną z „głównego biura” serwisu w USA, co pasuje zarówno do godzin publikacji postów na niektórych profilach serwisu w mediach społecznościowych, jak i do godzin, w których Kevin odpowiada na moje e-maile.
Początkowo podpisuje się jako „redaktor naczelny”, zanim mówi mi, że jest w rzeczywistości „producentem weryfikacji”. Odmawia podania nazwiska właściciela strony, który, jak mówi, martwi się „nie tylko o siebie, ale także o wszystkich, którzy dla niego pracują”.
Kevin twierdzi, że w USA, Wielkiej Brytanii, Pakistanie i Indiach pracuje „ponad 30” osób, zazwyczaj rekrutowanych z serwisów dla freelancerów – w tym Farhan i James. Mówi, że Farhan w szczególności nie był zamieszany w fałszywą historię Southport, za którą serwis publicznie przeprosił i obwinił „nasz zespół z siedzibą w Wielkiej Brytanii”.
W następstwie fałszywych oskarżeń udostępnionych przez Channel3Now, oskarżono go o powiązania z państwem rosyjskim, opierając się na starych filmach zamieszczonych na jego kanale YouTube w języku rosyjskim.
Kevin mówi, że strona kupiła dawny rosyjskojęzyczny kanał na YouTube, który skupiał się na rajdach samochodowych „wiele lat temu”, a później zmieniła nazwę.
Przez około sześć lat na koncie nie opublikowano żadnych filmów, zanim zaczęto przesyłać treści związane z Pakistanem, gdzie mieszka Farhan i gdzie serwis, jak przyznaje, ma swoich autorów.
„To, że kupiliśmy kanał na YouTube od rosyjskiego sprzedawcy, nie oznacza, że mamy z nim jakiekolwiek powiązania” – mówi Kevin.
„Jesteśmy niezależną witryną internetową poświęconą wiadomościom cyfrowym, obejmującą wiadomości z całego świata”.
Można kupić i ponownie wykorzystać kanał, który został już zmonetyzowany przez YouTube. Może to być szybki sposób na zbudowanie widowni, umożliwiając kontu natychmiastowe rozpoczęcie zarabiania pieniędzy.
„Jak najwięcej historii”
Chociaż nie znalazłem żadnych dowodów na poparcie tych twierdzeń o rosyjskich linkach do Channel3Now, prokremlowskie kanały Telegramu rzeczywiście udostępniały i wzmacniały fałszywe posty witryny. To taktyka, którą często stosują.
Kevin powiedział, że strona jest operacją komercyjną i „relacjonowanie jak największej liczby historii” pomaga jej generować dochód. Większość jej historii jest dokładna – najwyraźniej czerpiąc z wiarygodnych źródeł na temat strzelanin i wypadków samochodowych w USA. Jednak strona udostępniła dalsze fałszywe spekulacje na temat napastnika z Southport, a także osoby, która próbowała zabić Donalda Trumpa.
Po fałszywej historii Southport i medialnym doniesieniu o Channel3Now, Kevin mówi, że jego kanał YouTube i prawie wszystkie „wiele stron na Facebooku” zostały zawieszone, ale nie jego konta X. Strona na Facebooku, która wyłącznie udostępnia treści z witryny o nazwie Daily Felon, również pozostaje aktywna.
Kevin twierdzi, że winę za burzę w mediach społecznościowych związaną z podejrzanym z Southport i późniejsze zamieszki nie można zrzucić wyłącznie na „małe konto na Twitterze”, które popełniło „błąd”.
Do pewnego stopnia ma rację. Nieprawidłowa historia Channel3Now stała się źródłem cytowanym przez wiele kont w mediach społecznościowych, co sprawiło, że fałszywe oskarżenia stały się wirusowe.
Kilka z nich miało siedzibę w Wielkiej Brytanii i USA i ma historię publikowania dezinformacji na tematy takie jak pandemia, szczepionki i zmiany klimatu. Profile te były w stanie zgromadzić znaczną liczbę obserwujących i przekazać swoje treści większej liczbie osób, zmiany, które Elon Musk wprowadził po zakupie Twittera.
Jeden profil – należący do kobiety o imieniu Bernadette Spofforth – został oskarżony o zamieszczenie pierwszego posta zawierającego fałszywe nazwisko napastnika z Southport. Zaprzeczyła, że była jego źródłem, twierdząc, że widziała to nazwisko w innym poście, który został już usunięty.
W rozmowie telefonicznej z BBC powiedziała, że była „przerażona” atakiem, ale usunęła swój post, gdy tylko zorientowała się, że jest fałszywy. Powiedziała, że „nie była zmotywowana zarabianiem pieniędzy” na swoim koncie.
„Po co miałabym wymyślać coś takiego? Nie mam nic do zyskania, a wszystko do stracenia” – powiedziała. Potępiła ostatnią przemoc.
Pani Spofforth wcześniej udostępniała posty, w których podnosiła kwestie dotyczące blokady i środków mających na celu osiągnięcie zerowej emisji netto w zakresie zmian klimatycznych. Jednak jej profil został tymczasowo usunięty przez Twittera w 2021 r. po oskarżeniach o promowanie dezinformacji na temat szczepionki przeciwko Covid-19 i pandemii. Zaprzeczyła tym twierdzeniom i powiedziała, że wierzy, że Covid jest prawdziwy.
Od czasu przejęcia władzy przez pana Muska jej posty regularnie notują ponad milion wyświetleń.
Fałszywe twierdzenie, które pani Spofforth opublikowała na temat zamachowca z Southport, zostało szybko udostępnione dalej i podchwycone przez luźną grupę osób zajmujących się teoriami spiskowymi oraz użytkowników, którzy w przeszłości szerzyli poglądy antyimigracyjne i skrajnie prawicowe.
Wielu z nich kupiło niebieskie znaczniki, co odkąd pan Musk przejął Twittera, sprawiło, że ich posty mają większą widoczność.
Kolejna ze zmian wprowadzonych przez Muska w systemie X sprawiła, że promowanie tych idei może być opłacalne zarówno dla kont propagujących teorie spiskowe, jak i dla kont nastawionych na cele komercyjne, takich jak Channel3Now.
Miliony wyświetleń
Niektóre profile tego typu zgromadziły miliony wyświetleń w ciągu ostatniego tygodnia, publikując posty o atakach w Southport i późniejszych zamieszkach. „Podział przychodów z reklam” X oznacza, że użytkownicy z niebieskimi znacznikami mogą zarabiać część przychodów z reklam w swoich odpowiedziach.
Szacunki użytkowników z liczbą obserwujących mniejszą niż pół miliona, którzy w ten sposób wygenerowali dochód, mówią, że konta mogą zarobić 10-20 USD za milion wyświetleń lub wyświetleń na X. Niektóre z tych kont udostępniających dezinformację gromadzą ponad milion wyświetleń niemal na każdy post i udostępniają posty kilka razy dziennie.
Inne firmy mediów społecznościowych – poza X – również pozwalają użytkownikom zarabiać na wyświetleniach. Ale YouTube, TikTok, Instagram i Facebook wcześniej wycofały monetyzację lub zawiesiły niektóre profile publikujące treści naruszające ich wytyczne dotyczące dezinformacji. Poza zasadami dotyczącymi fałszywych treści AI, X nie ma wytycznych dotyczących dezinformacji.
Mimo że politycy apelowali do firm mediów społecznościowych o podjęcie większych działań w obliczu zamieszek, niedawno uchwalona w Wielkiej Brytanii ustawa o bezpieczeństwie w Internecie nie reguluje obecnie kwestii dezinformacji, gdyż pojawiły się obawy, że może to ograniczyć wolność słowa.
Ponadto, jak odkryłem podczas śledzenia autorów Channel3Now, osoby zamieszane w publikowanie fałszywych informacji często przebywają za granicą, co znacznie utrudnia podjęcie przeciwko nim działań.
Zamiast tego, moc radzenia sobie z tego typu treścią leży teraz w rękach samych firm mediów społecznościowych. X nie odpowiedział na prośbę BBC o komentarz.