Apple Nyheder

Sikkerhedsforskere udtrykker alarm over Apples planer om at scanne iCloud-billeder, men praksis er allerede udbredt

Torsdag den 5. august 2021 kl. 14:04 PDT af Juli Clover

Æble meddelt i dag det med lanceringen af iOS 15 og iPad 15 , vil den begynde at scanne iCloud-billeder i USA for at lede efter kendt materiale til seksuelt misbrug af børn (CSAM), med planer om at rapportere resultaterne til National Center for Missing and Exploited Children (NCMEC).





Børnesikkerhedsfunktion
Før da Apple detaljerede sine planer, lækket nyheder om CSAM-initiativet, og sikkerhedsforskere er allerede begyndt at udtrykke bekymringer om, hvordan Apples nye billedscanningsprotokol kunne bruges i fremtiden, som bemærket af Financial Times .

Apple bruger et 'NeuralHash'-system til at sammenligne kendte CSAM-billeder med billeder på en brugers iPhone før de uploades til iCloud . Hvis der er et match, uploades billedet med en kryptografisk sikkerhedsvoucher, og ved en vis tærskel udløses en anmeldelse for at kontrollere, om personen har CSAM på deres enheder.



hvordan man kopierer ord fra et billede

På nuværende tidspunkt bruger Apple sin billedscannings- og matchningsteknologi til at lede efter børnemishandling, men forskere bekymrer sig om, at det i fremtiden kan tilpasses til at scanne efter andre former for billeder, der er mere bekymrende, såsom anti-regeringsskilte på protester.

I en række tweets, Johns Hopkins kryptografiforsker Matthew Grøn sagde, at CSAM-scanning er en 'virkelig dårlig idé', fordi det i fremtiden kan udvides til at scanne ende-til-ende-krypterede billeder i stedet for blot indhold, der er uploadet til ‌iCloud‌. Til børn, Apple er implementere en separat scanningsfunktion, der leder efter seksuelt eksplicit indhold direkte i iMessages, som er ende-til-ende-krypteret.

Green rejste også bekymring over de hash, som Apple planlægger at bruge, fordi der potentielt kan være 'kollisioner', hvor nogen sender en harmløs fil, der deler en hash med CSAM og kan resultere i et falsk flag.

Apple siger på sin side, at dets scanningsteknologi har et 'ekstremt højt niveau af nøjagtighed' for at sikre, at konti ikke er markeret forkert, og rapporter bliver manuelt gennemgået før en persons ‌iCloud‌ konto er deaktiveret, og en rapport sendes til NCMEC.

Green mener, at Apples implementering vil presse andre teknologivirksomheder til at anvende lignende teknikker. 'Dette vil bryde dæmningen,' skrev han. 'Regeringer vil kræve det af alle.' Han sammenlignede teknologien med 'værktøjer, som undertrykkende regimer har indsat'.


Sikkerhedsforsker Alec Muffett, som tidligere arbejdede hos Facebook, sagde, at Apples beslutning om at implementere denne form for billedscanning var et 'enormt og regressivt skridt for individuelt privatliv.' 'Apple går tilbage til privatlivets fred for at muliggøre 1984,' sagde han.

Ross Anderson, professor i sikkerhedsteknik ved University of Cambridge sagde, at han kaldte det en 'absolut rystende idé', der kunne føre til 'distribueret bulkovervågning' af enheder.

Som mange har påpeget på Twitter, laver flere teknologivirksomheder allerede billedscanning for CSAM. Google, Twitter, Microsoft, Facebook og andre bruger billedhash-metoder til at lede efter og rapportere kendte billeder af børnemishandling.


Det er også værd at bemærke, at Apple var allerede scanning af noget indhold for børnemishandlingsbilleder forud for udrulningen af ​​det nye CSAM-initiativ. I 2020 sagde Apples Chief Privacy Officer Jane Horvath, at Apple brugte screeningsteknologi til at lede efter ulovlige billeder og derefter deaktiverer konti, hvis beviser for CSAM opdages.

synkronisering af imessage på mac og iphone

Apple i 2019 opdateret sine privatlivspolitikker at bemærke, at det ville scanne uploadet indhold for 'potentielt ulovligt indhold, herunder materiale om seksuel udnyttelse af børn', så dagens meddelelser er ikke helt nye.

Bemærk: På grund af den politiske eller sociale karakter af diskussionen om dette emne, er diskussionstråden placeret i vores Politiske nyheder forum. Alle forummedlemmer og besøgende er velkomne til at læse og følge tråden, men indlæg er begrænset til forummedlemmer med mindst 100 indlæg.

Tags: Apple privatliv , Apple børnesikkerhedsfunktioner