Reklama

Facebook kontra fake newsy w Polsce - jak serwis walczy z manipulacją?

Facebook podejmuje skoordynowaną i konkretną walkę z fałszywymi informacjami /AFP

Facebook stara się jak może, aby użytkownicy portalu nie zostali zmanipulowani przez fałszywe informacje. Przedstawiciele firmy, w rozmowie z dziennikarzem Interii, zapewniają o pełnej transparentności i braku ingerencji z zewnątrz w zbliżające się, polskie wybory.

Reklama

Obecnie na Facebooku znajdziemy około 2,7 miliarda użytkowników. Taka ilość profili nie tylko przytłacza w kontekście skali, ale również możliwości powiązanych z ewentualną manipulacją oraz wręcz hurtowym produkowaniem treści wprowadzających w błąd przeciętnego użytkownika. Amerykanie po 2016 roku oraz całym zamieszaniu związanym z wyborami w Stanach Zjednoczonych wyciągnęli ogromną nauczkę. Firma już przed tą aferą walczyła z plagą fake newsów, jednak tym razem wojna weszła na zupełnie nowy poziom. 

Za skanowanie i wyłapywanie treści odpowiadają już nie tylko sami użytkownicy, ale także stale uczące się algorytmy sztucznej inteligencji. Społecznościowy gigant współpracuje także z niezależnymi podmiotami, które na bieżąco sprawdzają i analizują informacje pojawiające się na Facebooku.

Reklama

Tego typu działanie nie omijają również polskich użytkowników, którzy w dobie zbliżających się wyborów są podzieleni. A jak wszyscy wiemy, chaos to podatny grunt na zasianie niekoniecznie prawdziwego ziarna. W tej kwestii miałem przyjemność porozmawiać z Jakubem Turowskim, przedstawicielem Facebooka w kontekście polityki publicznej. Dowiedziałem się nie tylko, jak amerykański gigant podchodzi do fake newsów, ale także co robi w kontekście kontrowersyjnych reklam oraz kwestii około-politycznych.

W jaki sposób Facebook walczy z fake newsami?

W kontekście fałszywych oraz manipulujących treści stanowisko Facebooka jest jasne i klarowne: firma korzysta z kilku procesów, które usprawniają analizę informacji oraz ich ocenę, a finalnie decyzję o tym, które z nich pozostaną na samym portalu. Na całym świecie sytuacje związane z bezpieczeństwem odpowiada około 30 tysięcy pracowników giganta.

Pierwszy i jednocześnie najważniejszy krok portalu, to aktywne usuwanie kont i treści niezgodnych z polityką Facebooka. Drugi, to odpowiednie wyciąganie konsekwencji w kwestii firm, które uprzednio ostrzeżone dalej publikują treści uznane za niezgodne z prawdą lub wprowadzające w błąd.

Zdaniem Jakuba Turowskiego najważniejsza jest transparentność całego procesu. Użytkownicy serwisu nie tylko otrzymują więcej informacji na temat treści, które widzą, ale również otrzymują do ręki narzędzia, które pozwalają im zgłaszać potencjalnie fałszywe informacje. Każda z tego typu danych trafia do odpowiedniego systemu, który sprawnie zarządza dalszymi procesami dotyczącymi analizy. Jedną z dróg jest przekazanie materiału do tak zwanych fact-checkers: osób oraz organizacji niezależnych, które na bieżąco weryfikują prawdziwość zgłoszonych informacji.

Facebook chętnie dzieli się przykładami, danymi oraz konkretnymi statystykami dotyczącymi skuteczności reagowania na manipulację w sieci. Przykładowo, na początku 2019 roku serwis usunął 364 strony, które były zaangażowane w tworzenie treści trafiających do regionu Europy Środkowej, a także Wschodniej. Co najmniej 790 tysięcy użytkowników weszło w interakcję z opisywanymi stronami, a sami administratorzy wydali około 135 tysięcy dolarów na reklamy, skutecznie zwiększając swój zasięg. Według Facebooka, każda ze stron (mimo ich różnych, internetowych tożsamości) była powiązana ze Sputnikiem - agencją newsową znajdującą się w Moskwie.

Tego typu danych jest znacznie więcej i obejmują one sobą wszystkie regiony naszej planety.

Kto odpowiada za sprawdzanie treści?

Za analizę oraz odpowiednie oznaczanie i kategoryzowanie treści odpowiadają "fact-checkers". W sprawę zaangażowani są ludzie mogący pochwalić się certyfikatem Pointera. Na terenie Polski, Facebook współpracuje z lokalnym oddziałem AFP (Agence France Presse) oraz Stowarzyszeniem Demagog. Oba z wymienionych podmiotów działają w kontekście poprawy jakości debaty publicznej oraz dostarczeniu użytkownikom bezstronnej i wiarygodnej informacji.

Co więc dzieje się z treścią, która zostanie potencjalnie uznana za fałszywą lub manipulującą opinią czytającego? Jakub Turowski wyjaśnia, iż w momencie odpowiedniej oceny weryfikatora, Facebook automatycznie zmniejszy zasięg danego posta i będzie wyświetlał go niżej w "aktualnościach" użytkownika. Zasięg stron, które będą nagminnie oznaczane za tego typu proceder również zostanie skutecznie zmniejszony. Na samym końcu Facebook odbierze tego typu stronom narzędzia reklamowe oraz monetyzacyjne.

Oczywiście zespoły fact-checkers (Facebook korzysta z 52 zewnętrznych partnerów operujących w 42 językach) to nie jedyna metoda na ocenę i weryfikacje treści. Sam proces jest złożony i składa się z wielu gałęzi - na całe szczęście w tej całej algorytmizacji człowiek siedzący przed monitorem komputera ma nadal sporo do powiedzenia.

Polskie wybory póki co bezpieczne

Jak zaznacza Jakub Turowski, Facebook do tej pory nie odnotował w Polsce żadnej próby, która mogłaby zostać sklasyfikowana jako działanie wymierzone stricte w użytkowników. W kontekście zbliżających się wyborów nie ma więc powodów do obaw - sytuacja jest pod kontrolą, a za bezpieczeństwo związane z fake newsami oraz ewentualną manipulacją odpowiada w naszym kraju 40 zespołów.

Serwis społecznościowy chce także, aby każdy, przeciętny użytkownik mógł podejrzeć wszystkie informacje związane z popularnymi reklamami wyborczymi. Aby tego typu formaty pojawiły się w strumieniu aktualności, muszą przejść specjalnie zaprojektowany proces weryfikacyjny. To jednak nie wszystko. Facebook wyświetla wszystkie informacje związane z daną kampanią reklamową, pozwala zobaczyć kto za nią zapłacił, a także z jakich kryteriów korzystał kierując swoje przesłanie do przeciętnego użytkownika internetu. Wykorzystanie zabezpieczeń geolokalizacyjnych ma sprawić, iż nie dojdzie do sytuacji, w której to manipulatorzy będą mogli wpływać na opinię publiczną jednocześnie finansując cały proceder przebywając w innych regionach świata.

Facebook przechowuje wszystkie informacje na temat reklam oraz kampanii politycznych przez siedem lat i daje do nich dowolny dostęp każdemu użytkownikowi. To część procesu edukacyjnego firmy, który ma zachęcać wszystkich do głębszego weryfikowania informacji wyświetlanych na ekranie komputera czy też smartfona.

Wizja przyszłości

Przyszłość Facebooka w kontekście dbałości o bezpieczeństwo zaczyna się krystalizować. Po oskarżeniach oraz głośnych aferach dotyczących prywatności, które wybuchały na przestrzeni ostatniego roku amerykańska firma zrobi wszystko, aby uspokoić samych użytkowników. Sytuacja jest trudna bowiem wymaga walki na wielu frontach jednocześnie.

Czy tego typu strategia się sprawdzi? Jakkolwiek nie byłaby ona solidna, to warto pamiętać, że w każdej układance najsłabszym ogniwem zawsze będzie człowiek.  

Dowiedz się więcej na temat: Facebook | fake news | bezpieczeństwo

Reklama

Reklama

Reklama

Reklama

Strona główna INTERIA.PL

Polecamy

Rekomendacje