Apple rebate preocupações de privacidade em relação à digitalização de fotos CSAM

click fraud protection

maçã descreveu um conjunto de próximos recursos de segurança infantil na semana passada, mas seguindo preocupações generalizadas de privacidade e um alvoroço online, a empresa compartilhou um FAQ detalhado que visa esclarecer algumas das principais dúvidas e responder perguntas. As novas medidas de segurança infantil da Apple envolvem escanear fotos do iCloud para detectar Material de Abuso Sexual Infantil (CSAM) e notificar os pais quando as crianças recebem fotos explícitas nas Mensagens. As intenções, pelo menos na superfície, são nobres, mas vários especialistas em segurança e defensores da privacidade levantaram alarmes sobre o ramificações de longo prazo desses novos recursos, chegando a questionar se isso invalida as reivindicações de privacidade da Apple e cria um Porta dos fundos.

o Electronic Frontier Foundation (EFF) chamou as propostas de backdoor com escopo restrito e que era plausível ampliar o escopo da digitalização fotos iCloud além de apenas imagens CSAM sob pressão das autoridades. Os especialistas também questionaram o método de implementação, pois os hashes CSAM serão incluídos no nível do iPhone e iPad OS, o que significa que podem ser habilitado em qualquer país além dos Estados Unidos, onde os níveis de supervisão variam, as leis são diferentes e a demanda das autoridades pode ser mais persuasivo.

A Apple tentou responder a algumas dessas preocupações com seu Papel de FAQ. Começando com a segurança da comunicação em Mensagens, a Apple diz que não é o mesmo que detecção de CSAM e que não pode realmente acessar o que é compartilhado em sua plataforma de mensagens. Mais importante, a Apple diz que a nova ferramenta de segurança infantil em mensagens não quebrará a criptografia de ponta a ponta. A Apple garante que só adiciona um nível de intervenção quando as imagens explícitas são compartilhadas com um telefone usado por um menor, mas o informações, detalhes de comunicação, notificação enviada aos pais ou os resultados da avaliação de imagem não estão acessíveis para Maçã. Respondendo a dúvidas se o recurso de notificação pode ser um problema para crianças em lares abusivos, a Apple diz que está tornando mais acessível para as vítimas encontrarem suporte via Siri e Search.

Apple no modo de controle de danos, mas as preocupações permanecem

Chegando ao tópico mais controverso de digitalização de fotos, A Apple diz que não vai digitalizar fotos armazenadas no armazenamento local de um telefone. Além disso, desabilitar o Fotos do iCloud significa que a varredura da imagem CSAM não acontecerá em tais dispositivos. Ao discutir o aspecto legal de relatar contas às autoridades, a Apple diz que possuir imagens CSAM é ilegal nos Estados Unidos e, portanto, é obrigado a relatar tais incidentes às autoridades competentes agências. Lidando com as preocupações de que a Apple possa ser pressionada a expandir o escopo de seu sistema de varredura de imagens, a empresa diz que não se curvará às demandas de qualquer governo para fazê-lo.

Com relação ao problema de detecção incorreta por um sistema automatizado de digitalização de imagens, a Apple diz que as chances de falha são tão baixas quanto uma em um trilhão por ano. A empresa afirma que não pode alterar os hashes de imagem para digitalizar qualquer coisa além do conteúdo CSAM, e não vai relatar uma conta às autoridades antes de realizar uma revisão humana para minimizar as chances de um erro. No entanto, as preocupações ainda permanecem. A nova tecnologia de detecção de CSAM serve como um modelo para que um sistema de varredura baseado em hash semelhante possa ser desenvolvido por uma agência independente ou patrocinada pelo estado. E, uma vez que isso aconteça, um governo exagerado pode usá-lo para cometer atos como silenciar a dissidência ou pior. Sim, a Apple prometeu não ceder, mas nos principais mercados - e mesmo naqueles onde sua pegada está se expandindo em um ritmo rápido - uma escolha absoluta entre o usuário privacidade e lucros definitivamente poderia colocar a Apple em uma situação complicada.

Fonte: maçã, EFF

Ruby Rose Alleges Dougray Scott abusou de mulheres no set de Batwoman

Sobre o autor