Apple Nyheder

Universitetsforskere, der byggede et CSAM-scanningssystem, opfordrer Apple til ikke at bruge den 'farlige' teknologi

Fredag ​​den 20. august 2021 kl. 06.48 PDT af Sami Fathi

Respekterede universitetsforskere slår alarmklokkerne over teknologien bag Apples planer om at scanne iPhone brugeres fotobiblioteker for CSAM eller materiale om seksuelt misbrug af børn, der kalder teknologien 'farlig'.





æble privatliv
Jonanath Mayer, en assisterende professor i datalogi og offentlige anliggender ved Princeton University, samt Anunay Kulshrestha, en forsker ved Princeton University Center for Information Technology Policy, begge skrevet en op-ed til Washington Post , der beskriver deres erfaringer med at bygge billeddetekteringsteknologi.

Forskerne startede et projekt for to år siden for at identificere CSAM i end-to-end krypterede onlinetjenester. Forskerne bemærker, at givet deres felt, 'kender de værdien af ​​end-to-end-kryptering, som beskytter data mod tredjepartsadgang.' Den bekymring, siger de, er det, der forfærder dem over, at CSAM 'spreder sig på krypterede platforme'.



hvordan man downloader spil på Apple watch

Mayer og Kulshrestha sagde, at de ønskede at finde en mellemvej for situationen: Byg et system, som onlineplatforme kunne bruge til at finde CSAM og beskytte end-to-end-kryptering. Forskerne bemærker, at eksperter på området tvivlede på udsigten til et sådant system, men de formåede at bygge det og bemærkede i processen et betydeligt problem.

Vi søgte at udforske en mulig mellemvej, hvor onlinetjenester kunne identificere skadeligt indhold, mens end-to-end-kryptering ellers bevares. Konceptet var ligetil: Hvis nogen delte materiale, der matchede en database med kendt skadeligt indhold, ville tjenesten blive advaret. Hvis en person delte uskyldigt indhold, ville tjenesten intet lære. Folk kunne ikke læse databasen eller finde ud af, om indholdet matchede, da disse oplysninger kunne afsløre retshåndhævelsesmetoder og hjælpe kriminelle med at undgå opdagelse.

Kyndige iagttagere hævdede, at et system som vores langt fra var muligt. Efter mange falske starter byggede vi en fungerende prototype. Men vi stødte på et grelt problem.

Siden Apples annoncering af funktionen er virksomheden blevet bombarderet med bekymringer at systemet bag at opdage CSAM kunne bruges til at opdage andre former for fotos efter anmodning fra undertrykkende regeringer. Apple har kraftigt skubbet en sådan mulighed tilbage og sagt, at de vil afslå enhver sådan anmodning fra regeringer.

Ikke desto mindre er bekymringer over de fremtidige implikationer af den teknologi, der bruges til CSAM-detektion, udbredt. Mayer og Kulshrestha sagde, at deres bekymringer over, hvordan regeringer kunne bruge systemet til at opdage andet indhold end CSAM, fik dem 'forstyrret'.

hvordan man deaktiverer apps på iphone 12

En udenlandsk regering kunne f.eks. tvinge en tjeneste til at uddele folk, der deler ugunstigt politisk tale. Det er ingen hypotetisk: WeChat, den populære kinesiske messaging-app, bruger allerede indholdsmatchning til at identificere dissidentmateriale. Indien vedtog regler i år, der kunne kræve forhåndsscreening af indhold, der er kritisk over for regeringens politik. Rusland bøder for nylig Google, Facebook og Twitter for ikke at fjerne pro-demokratiske protestmaterialer.

Vi opdagede andre mangler. Indholdsmatchningsprocessen kunne have falske positiver, og ondsindede brugere kunne spille systemet for at udsætte uskyldige brugere for kontrol.

Vi var så forstyrrede, at vi tog et skridt, vi ikke havde set før i datalogilitteraturen: Vi advarede mod vores eget systemdesign, og opfordrede til yderligere forskning i, hvordan vi kan afbøde de alvorlige ulemper....

Apple har fortsat med at adressere brugernes bekymringer over sine planer, udgivelse af yderligere dokumenter og en FAQ-side . Apple tror fortsat på, at dets CSAM-detektionssystem, som vil forekomme på en brugers enhed, stemmer overens med dets langvarige privatlivsværdier.

Tags: Apples privatliv , WashingtonPost.com , Apples børnesikkerhedsfunktioner