Apple Nyheder

Apples foreslåede telefonscanningsfunktioner for børnesikkerhed 'Invasive, ineffektive og farlige', siger cybersikkerhedsforskere i ny undersøgelse

Fredag ​​den 15. oktober 2021 kl. 01:23 PDT af Tim Hardwick

Mere end et dusin fremtrædende cybersikkerhedseksperter slog torsdag ud mod Apple for at stole på 'farlig teknologi' i deres kontroversielle plan for at opdage billeder af seksuelt misbrug af børn på iPhones (via New York Times ).





Børnesikkerhedsfunktion Lilla
Den fordømmende kritik kom i en ny 46-siders undersøgelse foretaget af forskere, der undersøgte Apples og EU's planer om at overvåge folks telefoner for ulovligt materiale, og kaldte indsatsen for ineffektive og farlige strategier, der ville opmuntre regeringens overvågning.

Meddelt i august , omfatter de planlagte funktioner scanning på klientsiden (dvs. på enheden) af brugernes iCloud-billeder biblioteker for materiale til seksuelt misbrug af børn (CSAM), kommunikationssikkerhed for at advare børn og deres forældre, når de modtager eller sender seksuelt eksplicitte billeder og udvidet CSAM-vejledning i syrien og Søg.



Ifølge forskerne, Dokumenter udgivet af Den Europæiske Union tyder på, at blokkens styrende organ søger et lignende program, der vil scanne krypterede telefoner for både seksuelt misbrug af børn såvel som tegn på organiseret kriminalitet og terrorrelaterede billeder.

'Det bør være en national sikkerhedsprioritet at modstå forsøg på at spionere på og påvirke lovlydige borgere,' sagde forskerne, som tilføjede, at de offentliggør deres resultater nu for at informere EU om farerne ved dens plan.

'Udvidelsen af ​​statens overvågningsbeføjelser passerer virkelig en rød linje,' sagde Ross Anderson, professor i sikkerhedsteknik ved University of Cambridge og medlem af gruppen.

Bortset fra overvågningsbekymringer, sagde forskerne, viste deres resultater, at teknologien ikke var effektiv til at identificere billeder af seksuelt misbrug af børn. Inden for få dage efter Apples annoncering, sagde de, havde folk peget på måder at undgå opdagelse ved at redigere billederne lidt.

'Det tillader scanning af en personlig privat enhed uden nogen sandsynlig årsag til, at noget illegitimt bliver gjort,' tilføjede et andet medlem af gruppen, Susan Landau, professor i cybersikkerhed og politik ved Tufts University. 'Det er usædvanligt farligt. Det er farligt for erhvervslivet, den nationale sikkerhed, for den offentlige sikkerhed og for privatlivets fred.'

Cybersikkerhedsforskerne sagde, at de havde påbegyndt deres undersøgelse før Apples meddelelse, og at de offentliggjorde deres resultater nu for at informere EU om farerne ved dets egne lignende planer.

Apple har mødt betydelig kritik fra fortalere for privatlivets fred , sikkerhedsforskere , kryptografieksperter , akademikere , politikere , og endda medarbejdere i virksomheden for sin beslutning om at implementere teknologien i en fremtidig opdatering til iOS 15 og iPad 15 .

Apple forsøgte i første omgang at fjerne misforståelser og berolige brugerne ved frigive detaljerede oplysninger, deling af ofte stillede spørgsmål, forskellige nye dokumenter , interviews med virksomhedsledere , og mere for at dæmpe bekymringer.

Men da det blev klart, at dette ikke havde den tilsigtede effekt, anerkendte Apple efterfølgende den negative feedback og annoncerede i september en forsinkelse af udrulningen af ​​funktionerne at give virksomheden tid til at lave 'forbedringer' til CSAM-systemet, selvom det ikke er klart, hvad de vil involvere, og hvordan de vil løse problemer.

Apple har også sagt, at det ville nægte krav fra autoritære regeringer om at udvide billedregistreringssystemet ud over billeder af børn, der er markeret af anerkendte databaser med materiale om seksuelt misbrug af børn, selvom det ikke har sagt, at det ville trække sig ud af et marked i stedet for at adlyde en retskendelse.

Tags: Apple privatliv , Apple børnesikkerhedsfunktioner