Apple Nyheder

Apple-ansatte rejser internt bekymringer over CSAM-detektionsplaner

Fredag ​​den 13. august 2021 kl. 12.43 PDT af Sami Fathi

Apple-ansatte slutter sig nu til koret af personer, der giver udtryk for bekymring over Apples planer om at scanne iPhone brugeres fotobiblioteker for CSAM eller materiale om seksuelt misbrug af børn, der angiveligt udtaler sig internt om, hvordan teknologien kunne bruges til at scanne brugernes billeder for andre typer indhold, ifølge en rapport fra Reuters .





apple park drone juni 2018 2
Ifølge Reuters , har et uspecificeret antal Apple-medarbejdere taget til interne Slack-kanaler for at rejse bekymring over CSAM-detektion. Specifikt er medarbejdere bekymrede for, at regeringer kan tvinge Apple til at bruge teknologien til censur ved at finde andet indhold end CSAM. Nogle medarbejdere er bekymrede for, at Apple skader sit brancheførende privatlivs omdømme.

Apple-ansatte har oversvømmet en Apple intern Slack-kanal med mere end 800 beskeder på planen, der blev annonceret for en uge siden, fortalte arbejdere, der bad om ikke at blive identificeret, til Reuters. Mange udtrykte bekymring for, at funktionen kunne blive udnyttet af undertrykkende regeringer, der søger at finde andet materiale til censur eller arrestationer, ifølge arbejdere, der så den dagelange tråd.



Tidligere sikkerhedsændringer hos Apple har også givet anledning til bekymring blandt medarbejderne, men omfanget og varigheden af ​​den nye debat er overraskende, sagde arbejderne. Nogle plakater bekymrede sig om, at Apple skader sit førende ry for at beskytte privatlivets fred.

Apple-ansatte i roller vedrørende brugersikkerhed menes ikke at have været en del af den interne protest, ifølge rapporten.

Lige siden dens meddelelse i sidste uge , er Apple blevet bombarderet med kritik over sine CSAM-detektionsplaner, som stadig forventes at blive udrullet med iOS 15 og iPadOS 15 til efteråret. Bekymringerne drejer sig hovedsageligt om, hvordan teknologien kan udgøre en glidebane for fremtidige implementeringer af undertrykkende regeringer og regimer.

hvordan man hårdt genstarter macbook pro

Apple har kraftigt skubbet tilbage mod ideen om, at den on-device-teknologi, der bruges til at detektere CSAM-materiale, kunne bruges til ethvert andet formål. I en offentliggjort FAQ-dokument , siger selskabet, at det på det kraftigste vil afvise ethvert sådant krav fra regeringer.

Kunne regeringer tvinge Apple til at tilføje ikke-CSAM-billeder til hash-listen?
Apple vil afvise sådanne krav. Apples CSAM-detektionsfunktion er udelukkende bygget til at detektere kendte CSAM-billeder gemt i iCloud-fotos, som er blevet identificeret af eksperter hos NCMEC og andre børnesikkerhedsgrupper. Vi har tidligere stået over for krav om at opbygge og implementere regeringsmanderede ændringer, der forringer brugernes privatliv, og har konsekvent afvist disse krav. Vi vil fortsætte med at afvise dem i fremtiden. Lad os være klare, denne teknologi er begrænset til at detektere CSAM gemt i iCloud, og vi vil ikke imødekomme nogen regerings anmodning om at udvide den. Ydermere udfører Apple menneskelig gennemgang, før den rapporterer til NCMEC. I et tilfælde, hvor systemet markerer billeder, der ikke matcher kendte CSAM-billeder, vil kontoen ikke blive deaktiveret, og der vil ikke blive indsendt nogen rapport til NCMEC.

An åbent brev kritiserer Apple og opfordrer virksomheden til øjeblikkeligt at stoppe sin plan om at implementere CSAM-detektion, har fået mere end 7.000 underskrifter i skrivende stund. Lederen af ​​WhatsApp har også vejes ind i debatten .

Tags: Apple privatliv , Apple børnesikkerhedsfunktioner