Apple Nyheder

Apple introducerer nye børnesikkerhedsfunktioner, herunder scanning af brugeres fotobiblioteker for kendt materiale til seksuelt misbrug

Torsdag den 5. august 2021 kl. 13.00 PDT af Joe Rossignol

Apple i dag forhåndsvist nye børnesikkerhedsfunktioner der kommer til sine platforme med softwareopdateringer senere i år. Virksomheden sagde, at funktionerne først vil være tilgængelige i USA ved lanceringen og vil blive udvidet til andre regioner over tid.





iphone kommunikation sikkerhedsfunktion

Kommunikationssikkerhed

For det første vil appen Beskeder på iPhone, iPad og Mac få en ny kommunikationssikkerhedsfunktion, der advarer børn og deres forældre, når de modtager eller sender seksuelt eksplicitte billeder. Apple sagde, at Messages-appen vil bruge maskinlæring på enheden til at analysere billedvedhæftninger, og hvis et billede er fast besluttet på at være seksuelt eksplicit, vil billedet automatisk blive sløret, og barnet vil blive advaret.



hvordan man master reset iphone 12

Når et barn forsøger at se et billede, der er markeret som følsomt i appen Beskeder, vil de blive advaret om, at billedet kan indeholde private kropsdele, og at billedet kan være sårende. Afhængigt af barnets alder vil der også være mulighed for, at forældre får besked, hvis deres barn fortsætter med at se det følsomme billede, eller hvis de vælger at sende et seksuelt eksplicit billede til en anden kontakt efter at være blevet advaret.

Apple sagde, at den nye kommunikationssikkerhedsfunktion vil komme i opdateringer til iOS 15, iPadOS 15 og macOS Monterey senere i år for konti, der er oprettet som familier i iCloud. Apple sikrede, at iMessage-samtaler forbliver beskyttet med ende-til-ende-kryptering, hvilket gør privat kommunikation ulæselig for Apple.

Scanning af billeder for materiale om seksuelt misbrug af børn (CSAM)

For det andet, fra og med i år med iOS 15 og iPadOS 15, vil Apple være i stand til at opdage kendte Child Sexual Abuse Material (CSAM) billeder gemt i iCloud Photos, hvilket gør det muligt for Apple at rapportere disse tilfælde til National Center for Missing and Exploited Children (NCMEC) , en non-profit organisation, der arbejder i samarbejde med amerikanske retshåndhævende myndigheder.

Apple sagde, at deres metode til at opdage kendt CSAM er designet med brugernes privatliv i tankerne. I stedet for at scanne billeder i skyen sagde Apple, at systemet vil udføre matchning på enheden mod en database med kendte CSAM-billedhash leveret af NCMEC og andre børnesikkerhedsorganisationer. Apple sagde, at det yderligere vil transformere denne database til et ulæseligt sæt hashes, der er sikkert gemt på brugernes enheder.

Hashing-teknologien, kaldet NeuralHash, analyserer et billede og konverterer det til et unikt nummer, der er specifikt for det billede, ifølge Apple.

'Hovedformålet med hashen er at sikre, at identiske og visuelt ens billeder resulterer i den samme hash, mens billeder, der er forskellige fra hinanden, resulterer i forskellige hashes,' sagde Apple i en ny 'Udvidet beskyttelse for børn' hvidbog. 'For eksempel behandles et billede, der er blevet lidt beskåret, ændret størrelse eller konverteret fra farve til sort-hvid, identisk med dets originale og har samme hash.'

apple csam flowdiagram
Før et billede gemmes i iCloud Photos, sagde Apple, at der udføres en matchningsproces på enheden for det billede mod det ulæselige sæt af kendte CSAM-hashes. Hvis der er et match, opretter enheden en kryptografisk sikkerhedsvoucher. Denne voucher uploades til iCloud Photos sammen med billedet, og når en ikke-oplyst tærskel for kampe er overskredet, er Apple i stand til at fortolke indholdet af vouchers for CSAM-matches. Apple gennemgår derefter manuelt hver rapport for at bekræfte, at der er et match, deaktiverer brugerens iCloud-konto og sender en rapport til NCMEC. Apple deler ikke, hvad dens nøjagtige tærskel er, men sikrer et 'ekstremt højt niveau af nøjagtighed', at konti ikke er forkert markeret.

Apple sagde, at deres metode til at opdage kendt CSAM giver 'betydelige privatlivsfordele' i forhold til eksisterende teknikker:

• Dette system er en effektiv måde at identificere kendte CSAM, der er gemt i iCloud Photos-konti, mens det beskytter brugernes privatliv.
• Som en del af processen kan brugere heller ikke lære noget om det sæt af kendte CSAM-billeder, der bruges til matchning. Dette beskytter indholdet af databasen mod ondsindet brug.
• Systemet er meget præcist med en ekstrem lav fejlrate på mindre end én ud af én billion konto om året.
• Systemet er væsentligt mere privatlivsbevarende end skybaseret scanning, da det kun rapporterer brugere, der har en samling af kendte CSAM gemt i iCloud Photos.

Den underliggende teknologi bag Apples system er ret kompleks, og den har udgivet en teknisk resumé med flere detaljer.

'Apples udvidede beskyttelse til børn er en game changer. Med så mange mennesker, der bruger Apple-produkter, har disse nye sikkerhedsforanstaltninger livreddende potentiale for børn, der bliver lokket online, og hvis forfærdelige billeder bliver cirkuleret i materiale om seksuelt misbrug af børn,' sagde John Clark, præsident og administrerende direktør for National Center for Missing. & Udnyttede børn. 'På National Center for Missing & Exploited Children ved vi, at denne forbrydelse kun kan bekæmpes, hvis vi er standhaftige i vores dedikation til at beskytte børn. Vi kan kun gøre dette, fordi teknologipartnere, som Apple, går op og gør deres engagement kendt. Virkeligheden er, at privatliv og beskyttelse af børn kan eksistere side om side. Vi bifalder Apple og ser frem til at arbejde sammen for at gøre denne verden til et mere sikkert sted for børn.'

Udvidet CSAM-vejledning i Siri og søgning

iphone csam siri
For det tredje sagde Apple, at det vil udvide vejledningen i Siri og Spotlight Search på tværs af enheder ved at give yderligere ressourcer til at hjælpe børn og forældre med at forblive sikre online og få hjælp i usikre situationer. For eksempel vil brugere, der spørger Siri, hvordan de kan rapportere CSAM eller børneudnyttelse, blive henvist til ressourcer til, hvor og hvordan de skal indgive en anmeldelse.

Opdateringerne til Siri og Search kommer senere i år i en opdatering til iOS 15, iPadOS 15, watchOS 8 og macOS Monterey, ifølge Apple.

Bemærk: På grund af den politiske eller sociale karakter af diskussionen om dette emne, er diskussionstråden placeret i vores Politiske nyheder forum. Alle forummedlemmer og besøgende er velkomne til at læse og følge tråden, men indlæg er begrænset til forummedlemmer med mindst 100 indlæg.

Tags: Apple privatliv , Apple børnesikkerhedsfunktioner