Apple zavrača pomisleke glede zasebnosti zaradi skeniranja fotografij CSAM

click fraud protection

Apple je prejšnji teden orisal niz prihajajočih varnostnih funkcij za otroke, vendar po razširjenih pomislekih glede zasebnosti in spletno razburjenje, je podjetje delilo podrobna pogosta vprašanja, katerih cilj je razjasniti nekatere ključne dvome in odgovoriti vprašanja. Appleovi novi varnostni ukrepi za otroke vključujejo skeniranje fotografij iCloud za odkrivanje gradiva o spolni zlorabi otrok (CSAM) in obveščanje staršev, ko otroci prejmejo eksplicitne fotografije v sporočilih. Nameni so, vsaj na videz, plemeniti, toda številni varnostni strokovnjaki in zagovorniki zasebnosti so sprožili alarm glede dolgoročne posledice teh novih funkcij, ki gredo tako daleč, da se sprašujejo, ali to razveljavi Applove zahteve glede zasebnosti in ustvarja Zadnja vrata.

The Electronic Frontier Foundation (EFF) je predloge označil za zakulisje z ozkim obsegom in da je možno razširiti obseg skeniranja iCloud fotografije poleg slik CSAM pod pritiskom oblasti. Strokovnjaki so podvomili tudi o metodi implementacije, saj se bodo hashovi CSAM pekli na ravni iPhone in iPad OS, kar pomeni, da jih je mogoče omogočeno v kateri koli državi zunaj Združenih držav, kjer se ravni nadzora razlikujejo, zakoni so različni in je povpraševanje organov morda več prepričljiv.

Apple je s svojim delom poskušal odgovoriti na nekatere od teh pomislekov Papir s pogostimi vprašanji. Začenši z varnostjo komunikacije v sporočilih, Apple pravi, da to ni isto kot zaznavanje CSAM in da dejansko ne more dostopati do tega, kar je v skupni rabi prek njegove platforme za sporočanje. Še pomembneje je, da Apple pravi, da je novo orodje za varnost otrok v sporočilih ne bo prekinil šifriranja od konca do konca. Apple zagotavlja, da doda raven intervencije le, ko se eksplicitne slike delijo s telefonom, ki ga uporablja mladoletnik, vendar informacije, komunikacijske podrobnosti, obvestilo, poslano staršem, ali rezultati ocene slike niso dostopni Apple. Apple odgovarja na pomisleke, ali se funkcija obveščanja lahko izkaže za težavo za otroke v nasilnih domovih, Apple pravi, da je žrtvam bolj dostopen, da poiščejo podporo prek Siri in iskanja.

Apple v načinu nadzora škode, vendar skrbi ostajajo

Prihajamo k bolj sporni temi skeniranje fotografij, Apple pravi, da ne bo skeniral fotografij, shranjenih v lokalnem pomnilniku telefona. Poleg tega bo onemogočanje iCloud Photos pomenilo, da se skeniranje slike CSAM ne bo zgodilo na takih napravah. Ko razpravljajo o pravnem vidiku poročanja računov organom, Apple pravi, da je posedovanje slik CSAM nezakonito v Združenih državah, zato je dolžan tovrstne incidente prijaviti ustreznim organom pregona agencije. Glede na pomisleke, ali je mogoče prisiliti Apple, da razširi obseg svojega sistema za skeniranje slik, družba pravi, da se ne bo uklonila zahtevam katere koli vlade, da to stori.

Glede vprašanja napačnega zaznavanja s sistemom samodejnega skeniranja slik Apple pravi, da so možnosti za okvaro le ena na trilijon na leto. Podjetje trdi, da ne more spremeniti samih hashov slike za skeniranje česar koli razen vsebine CSAM, in ne bo prijavil računa organom, preden bo izvedel človeški pregled, da bi zmanjšal možnosti za napaka. Vendar pa skrbi še vedno ostajajo. Nova tehnologija za odkrivanje CSAM služi kot predloga, da lahko neodvisna agencija ali agencija, ki jo sponzorira država, razvije podoben sistem za skeniranje, ki temelji na hash. In ko se to zgodi, ga lahko premočna vlada uporabi za dejanja, kot je utišanje nestrinjanja ali še hujše. Da, Apple je obljubil, da se ne bo umaknil, toda na ključnih trgih – in tudi na tistih, kjer se njegov odtis hitro širi – absolutna izbira med uporabnikom zasebnosti in dobička bi zagotovo lahko postavil Apple v težavno situacijo.

vir: Apple, EFF

Ruby Rose trdi, da je Dougray Scott zlorabljal ženske na setu Batwoman

O avtorju