Użytkownicy usług Apple powinni o tym wiedzieć

Apple wypowiada wojnę wszelkiej formie dystrybucji i przesyłu dziecięcej pornografii za pośrednictwem urządzeń ich marki. Wcześniej firma zapowiedziała neuralMatch. Teraz wychodzą na jaw nowe fakty.

Na iOS 15 ma zawitać neuralMatch, czyli algorytm, który będzie wyłapywał zdjęcia związane z nadużyciem seksualnym dzieci. Program będzie początkowo działał tylko w Stanach Zjednoczonych i sprawdzi tylko i wyłącznie fotografie przesłane do iClouda. Jak się okazuje, to nie jest pierwszy krok Apple, w stronę walki z posiadaniem i dystrybucją dziecięcej pornografii.

Portal 9to5mac dowiedział się od Apple, że firma już od 2019 roku skanuje wiadomości e-mail użytkowników iClouda w poszukiwaniu załączników z dziecięcą pornografią. Uwagę redakcji zwróciła wypowiedź szefa działu FEAR Erica Friedmana, który powiedział: “Jesteśmy najlepszą platformą do dystrybucji dziecięcej pornografii". Kednak skąd miałby to wiedzieć bez żadnych danych? 

Reklama

iMessage jest zabezpieczony szyfrowaniem end-to-end, co oznacza, że nawet Apple nie ma dostępu do tych wiadomości. Firma twierdziła też, że nie ma zamiaru skanować prywatnych danych z iClouda w poszukiwaniu zawartości CSAM. To ostatnie okazało się być nieprawdą, jednak Apple zapewnia, że zdjęcia użytkowników nigdy nie były przedmiotem analizy.

Firma założona przez Steve’a Jobsa od lat była uznawana za lidera w ochronie prywatności swoich użytkowników. Ostatnie jej działania mogą skutecznie zaprzepaścić reputację, na którą przedsiębiorstwo pracowało przez bardzo długi czas.

INTERIA.PL
Dowiedz się więcej na temat: Apple | iCloud
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy