Apple Nyheder

Apple skitserer sikkerhed og privatliv for CSAM-detektionssystem i nyt dokument

Fredag ​​den 13. august 2021 kl. 12:45 PDT af Joe Rossignol

Apple i dag delte et dokument der giver et mere detaljeret overblik over børnesikkerhedsfunktioner, som den først annoncerede i sidste uge , herunder designprincipper, sikkerheds- og privatlivskrav og overvejelser om trusselsmodeller.





iphone kommunikation sikkerhedsfunktion
Apples plan om at opdage kendte Child Sexual Abuse Material (CSAM) billeder gemt i iCloud Photos har været særlig kontroversiel og har givet anledning til bekymringer fra nogle sikkerhedsforskere, non-profit Electronic Frontier Foundation og andre om, at systemet potentielt bliver misbrugt af regeringer som en form for masseovervågning.

Dokumentet har til formål at løse disse bekymringer og gentager nogle detaljer, der dukkede op tidligere i en interview med Apples softwareingeniørchef Craig Federighi , herunder at Apple forventer at sætte en indledende matchtærskel på 30 kendte CSAM-billeder, før en iCloud-konto bliver markeret til manuel gennemgang af virksomheden.



Apple sagde også, at databasen på enheden med kendte CSAM-billeder kun indeholder poster, der er uafhængigt indsendt af to eller flere børnesikkerhedsorganisationer, der opererer i separate suveræne jurisdiktioner og ikke er under den samme regerings kontrol.

Systemet er designet således, at en bruger ikke behøver at have tillid til Apple, nogen anden enkelt enhed eller endda et sæt af muligvis samordnede enheder fra den samme suveræne jurisdiktion (det vil sige under den samme regerings kontrol) for at være sikker på, at systemet fungerer som annonceret. Dette opnås gennem adskillige sammenlåsningsmekanismer, herunder den iboende reviderbarhed af et enkelt softwarebillede distribueret over hele verden til eksekvering på enheden, et krav om, at alle perceptuelle billedhasher inkluderet i den på enhedens krypterede CSAM-database leveres uafhængigt af to eller flere børnesikkerhed organisationer fra separate suveræne jurisdiktioner, og endelig en menneskelig gennemgangsproces for at forhindre fejlagtige rapporter.

Apple tilføjede, at det vil offentliggøre et supportdokument på sin hjemmeside, der indeholder en root-hash af den krypterede CSAM-hash-database, der følger med hver version af hvert Apple-operativsystem, der understøtter funktionen. Derudover sagde Apple, at brugere vil være i stand til at inspicere root-hashen af ​​den krypterede database, der findes på deres enhed, og sammenligne den med den forventede root-hash i supportdokumentet. Der blev ikke fastsat nogen tidsramme for dette.

I et notat opnået af Bloomberg 's Mark Gurman , sagde Apple, at det også vil have en uafhængig revisor til at gennemgå systemet. Notatet bemærkede, at Apples detailmedarbejdere kan få spørgsmål fra kunder om børnesikkerhedsfunktionerne og knyttet til dem en FAQ, som Apple delte tidligere på ugen som en ressource medarbejderne kan bruge til at besvare spørgsmålene og give mere klarhed og gennemsigtighed til kunderne.

Apple sagde oprindeligt, at de nye børnesikkerhedsfunktioner ville komme til iPhone, iPad og Mac med softwareopdateringer senere i år, og virksomheden sagde, at funktionerne først ville være tilgængelige i USA ved lanceringen. På trods af kritik, sagde Apple i dag, at det ikke har foretaget nogen ændringer i denne tidsramme for udrulning af funktionerne til brugerne.