Apple Nyheder

Craig Federighi anerkender forvirring omkring Apples børnesikkerhedsfunktioner og forklarer nye detaljer om sikkerhedsforanstaltninger

Fredag ​​den 13. august 2021 kl. 7:33 PDT af Hartley Charlton

Apples senior vicepræsident for software engineering, Craig Federighi, har i dag forsvaret virksomhedens kontroversielle planlagte børns sikkerhedsfunktioner i et væsentligt interview med Wall Street Journal , der afslører en række nye detaljer om de sikkerhedsforanstaltninger, der er indbygget i Apples system til scanning af brugeres fotobiblioteker for materiale til seksuelt misbrug af børn (CSAM).





craig wwdc 2021 privatliv
Federighi indrømmede, at Apple havde håndteret sidste uges bekendtgørelse af de to nye funktioner dårligt, relateret til detektering af eksplicit indhold i Beskeder til børn og CSAM-indhold gemt i iCloud-billeder biblioteker og anerkendte den udbredte forvirring omkring værktøjerne:

Det er virkelig tydeligt, at mange beskeder blev rodet temmelig dårligt sammen med hensyn til, hvordan tingene blev forstået. Vi ville ønske, at dette ville være kommet lidt tydeligere frem for alle, fordi vi føler os meget positive og stærke omkring det, vi laver.



iphone 12 pro max skjulte funktioner

[...]

Set i bakspejlet var det at introducere disse to funktioner på samme tid en opskrift på denne form for forvirring. Ved at frigive dem på samme tid koblede folk dem teknisk sammen og blev meget bange: hvad sker der med mine beskeder? Svaret er...der sker ikke noget med dine beskeder.

Kommunikationssikkerhedsfunktionen betyder, at hvis børn sender eller modtager eksplicitte billeder via iMessage, vil de blive advaret, før de ser det, billedet vil blive sløret, og der vil være mulighed for, at deres forældre bliver advaret. CSAM-scanning forsøger på den anden side at matche brugernes fotos med hashed-billeder af kendt CSAM, før de uploades til iCloud . Konti, der har fået registreret CSAM, vil derefter blive genstand for en manuel gennemgang af Apple og kan blive rapporteret til National Center for Missing and Exploited Children (NCMEC).

hvordan man øger den maksimale kapacitet på iphone-batteriet

De nye funktioner har været genstand for en stor mængde kritik fra brugere, sikkerhedsforskere , det Electronic Frontier Foundation (EFF) og Edward Snowden , Facebooks tidligere sikkerhedschef , og endda Apple medarbejdere .

Midt i denne kritik adresserede Federighi et af de vigtigste bekymringsområder og understregede, at Apples system vil være beskyttet mod at blive udnyttet af regeringer eller andre tredjeparter med 'flere niveauer af auditabilitet.'


Federighi afslørede også en række nye detaljer omkring systemets sikkerhedsforanstaltninger, såsom det faktum, at en bruger skal møde omkring 30 matches for CSAM-indhold i deres Fotos biblioteket, før Apple bliver advaret, hvorefter det vil bekræfte, om disse billeder ser ud til at være ægte forekomster af CSAM.

Hvis og kun hvis du når en tærskel på noget i størrelsesordenen 30 kendte børnepornografiske billeder, der matcher, først da ved Apple noget om din konto og ved noget om disse billeder, og ved på det tidspunkt kun om disse billeder, ikke om nogen af ​​dine andre billeder. Dette er ikke en analyse, for havde du et billede af dit barn i badekarret? Eller, for den sags skyld, havde du et billede af en eller anden form for pornografi? Dette matcher bogstaveligt talt kun på de nøjagtige fingeraftryk af specifikke kendte børnepornografiske billeder.

Han påpegede også sikkerhedsfordelen ved at placere matchningsprocessen på iPhone direkte, i stedet for at det sker på ‌iCloud‌s servere.

Fordi det er på [telefonen], er sikkerhedsforskere konstant i stand til at introspektere, hvad der sker i Apples [telefon]-software. Så hvis der blev foretaget ændringer, der skulle udvide omfanget af dette på en eller anden måde - på en måde, som vi havde forpligtet os til ikke at gøre - er der verificerbarhed, de kan opdage, at det sker.

Da han blev spurgt, om databasen med billeder, der blev brugt til at matche CSAM-indhold på brugernes enheder, kunne blive kompromitteret ved at have indsat andre materialer, såsom politisk indhold i visse regioner, forklarede Federighi, at databasen er konstrueret ud fra kendte CSAM-billeder fra flere børnesikkerhedsorganisationer, med mindst to 'i særskilte jurisdiktioner' for at beskytte mod misbrug af systemet.

biler, der er kompatible med digitale bilnøgler

Disse børnebeskyttelsesorganisationer, såvel som en uafhængig revisor, vil være i stand til at verificere, at databasen med billeder kun består af indhold fra disse enheder, ifølge Federighi.

Federighis interview er blandt de hidtil største PR-tilbagemeldinger fra Apple efter den blandede offentlige reaktion på annonceringen af ​​børnesikkerhedsfunktionerne, men virksomheden har også gentagne gange forsøgt at adressere brugernes bekymringer , udgivelse af en FAQ og direkte adressering af bekymringer i interviews med medierne .

Tags: The Wall Street Journal , Craig Federighi , Apples børnesikkerhedsfunktioner