Apple avviser bekymringer om personvern over CSAM-fotoskanning

click fraud protection

eple skisserte et sett med kommende barnesikkerhetsfunksjoner forrige uke, men etter utbredte personvernhensyn og en online rabalder har selskapet delt en detaljert FAQ som tar sikte på å avklare noen av de viktigste tvilene og svare spørsmål. Apples nye barnesikkerhetstiltak involverer skanning av iCloud-bilder for å oppdage Child Sexual Abuse Material (CSAM) og varsle foreldre når barn mottar eksplisitte bilder i meldinger. Intensjonene, i det minste på overflaten, er edle, men flere sikkerhetseksperter og personvernforkjempere har slått alarm om langsiktige konsekvenser av disse nye funksjonene, og går så langt som å stille spørsmål ved om dette ugyldiggjør Apples personvernkrav og skaper en bakdør.

De Electronic Frontier Foundation (EFF) kalte forslagene en bakdør med snevert omfang, og at det var plausibelt å utvide omfanget av skanning iCloud-bilder utover bare CSAM-bilder under press fra myndighetene. Eksperter har også stilt spørsmål ved implementeringsmetoden ettersom CSAM-hashene vil bli bakt inn på iPhone- og iPad OS-nivå, noe som betyr at de kan aktivert i alle land utenfor USA der tilsynsnivåene varierer, lovene er forskjellige og etterspørselen fra myndighetene kan være større overbevisende.

Apple har forsøkt å svare på noen av disse bekymringene med sin FAQ papir. Fra og med kommunikasjonssikkerheten i Meldinger, sier Apple at det ikke er det samme som CSAM-deteksjon, og at det faktisk ikke kan få tilgang til det som deles over meldingsplattformen. Enda viktigere, sier Apple det nye barnesikkerhetsverktøyet i meldinger vil ikke bryte ende-til-ende-kryptering. Apple forsikrer at det bare legger til et nivå av intervensjon når eksplisitte bilder deles med en telefon som brukes av en mindreårig, men informasjon, kommunikasjonsdetaljer, melding sendt til foreldrene eller bildeevalueringsresultatene er ikke tilgjengelige for Eple. For å svare på bekymringer om varslingsfunksjonen kan vise seg å være et problem for barn i voldelige hjem, sier Apple at det gjør det mer tilgjengelig for ofre å finne støtte via Siri og Search.

Apple i skadekontrollmodus, men bekymringene gjenstår

Kommer til det mer omstridte temaet skanner bilder, sier Apple at de ikke kommer til å skanne bilder som er lagret på telefonens lokale lagring. I tillegg vil deaktivering av iCloud Photos bety at CSAM-bildeskanningen ikke vil skje på slike enheter. Når vi diskuterer det juridiske aspektet ved å rapportere kontoer til myndighetene, sier Apple at det er ulovlig å ha CSAM-bilder i USA, og derfor er det forpliktet til å rapportere slike hendelser til passende rettshåndhevelse byråer. For å adressere bekymringer om Apple kan bli presset til å utvide omfanget av bildeskanningssystemet sitt, sier selskapet at det ikke vil bøye seg for krav fra noen regjering om å gjøre det.

Når det gjelder problemet med feiloppdagelse av et automatisert bildeskanningssystem, sier Apple at sjansene for feil er så lave som én av en billion per år. Selskapet hevder at det ikke kan endre bildehasjene selv for å skanne noe utover CSAM-innhold, og den vil ikke rapportere en konto til myndighetene før den utfører en menneskelig vurdering for å minimere sjansene for en feil. Det er imidlertid fortsatt bekymringer. Den nye CSAM-deteksjonsteknologien fungerer i seg selv som en mal som et lignende hash-basert skanningssystem kan utvikles av et uavhengig eller statsstøttet byrå. Og når det først skjer, kan en overbevisende regjering bruke den til å begå handlinger som å tie på dissens, eller enda verre. Ja, Apple har lovet å ikke vike seg, men i nøkkelmarkeder – og til og med de hvor fotavtrykket utvides i raskt tempo – et absolutt valg mellom brukere personvern og fortjeneste kan definitivt sette Apple i en vanskelig situasjon.

Kilde: eple, EFF

Ruby Rose hevder Dougray Scott misbrukte kvinner på Batwoman-settet

Om forfatteren