[ad_1]
Em agosto de 2021, A Apple anunciou um plano para digitalizar fotos que os usuários armazenaram no iCloud em busca de material de abuso sexual infantil (CSAM). A ferramenta deveria preservar a privacidade e permitir que a empresa sinalizasse conteúdo potencialmente problemático e abusivo sem revelar mais nada. Mas a iniciativa foi controversa e logo atraiu críticas generalizadas de pesquisadores de privacidade e segurança e grupos de direitos digitais que estavam preocupados com o fato de que o próprio recurso de vigilância poderia ser abusado para minar a privacidade e a segurança dos usuários do iCloud em todo o mundo. No início de setembro de 2021, a Apple disse que pausaria o lançamento do recurso para “coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes”. Em outras palavras, um lançamento ainda estava por vir. Agora, a empresa diz que, em resposta ao feedback e orientação que recebeu, a ferramenta de detecção de CSAM para fotos do iCloud está morta.
Em vez disso, a Apple disse à WIRED esta semana que está concentrando seus esforços e investimentos anti-CSAM em seus recursos de “segurança de comunicação”, que a empresa anunciou inicialmente em agosto de 2021 e lançou em dezembro passado. Os pais e cuidadores podem optar pelas proteções por meio de contas familiares do iCloud. Os recursos funcionam no Siri, na pesquisa Spotlight da Apple e no Safari Search para avisar se alguém está olhando ou procurando por materiais de abuso sexual infantil e fornece recursos no local para denunciar o conteúdo e buscar ajuda. Além disso, o núcleo da proteção é a Segurança de comunicação para mensagens, que os cuidadores podem configurar para fornecer um aviso e recursos às crianças se receberem ou tentarem enviar fotos que contenham nudez. O objetivo é impedir a exploração infantil antes que ela aconteça ou se torne arraigada e reduza a criação de novos CSAM.
“Após extensa consulta com especialistas para coletar feedback sobre as iniciativas de proteção infantil que propusemos no ano passado, estamos aprofundando nosso investimento no recurso Communication Safety que disponibilizamos pela primeira vez em dezembro de 2021”, disse a empresa à WIRED em um comunicado. “Decidimos ainda não avançar com nossa ferramenta de detecção de CSAM proposta anteriormente para o iCloud Photos. As crianças podem ser protegidas sem que as empresas vasculhem dados pessoais, e continuaremos trabalhando com governos, defensores da criança e outras empresas para ajudar a proteger os jovens, preservar seu direito à privacidade e tornar a Internet um lugar mais seguro para as crianças e para todos nós. .”
A atualização do CSAM da Apple vem junto com o anúncio de que a empresa está expandindo amplamente suas ofertas de criptografia de ponta a ponta para o iCloud, incluindo a adição de proteção para backups e fotos armazenadas no serviço de nuvem. Especialistas em segurança infantil e tecnólogos que trabalham para combater o CSAM frequentemente se opõem à implantação mais ampla da criptografia de ponta a ponta porque torna os dados do usuário inacessíveis para empresas de tecnologia, tornando mais difícil para eles escanear e sinalizar o CSAM. Agências de aplicação da lei em todo o mundo também citaram o terrível problema do abuso sexual infantil ao se opor ao uso e expansão da criptografia de ponta a ponta, embora muitas dessas agências tenham sido historicamente hostis à criptografia de ponta a ponta em geral porque pode tornar algumas investigações mais desafiadoras. A pesquisa mostrou consistentemente, porém, que a criptografia de ponta a ponta é uma ferramenta de segurança vital para proteger os direitos humanos e que as desvantagens de sua implementação não superam os benefícios.
A segurança de comunicação para mensagens é opcional e analisa os anexos de imagem que os usuários enviam e recebem em seus dispositivos para determinar se uma foto contém nudez. O recurso foi projetado para que a Apple nunca tenha acesso às mensagens, a criptografia de ponta a ponta que o Messages oferece nunca seja quebrada e a Apple nem saiba que um dispositivo detectou nudez.
A empresa disse à WIRED que, embora não esteja pronta para anunciar um cronograma específico para expandir seus recursos de segurança de comunicação, a empresa está trabalhando para adicionar a capacidade de detectar nudez em vídeos enviados por mensagens quando a proteção estiver ativada. A empresa também planeja expandir a oferta além do Messages para seus outros aplicativos de comunicação. Em última análise, o objetivo é possibilitar que desenvolvedores terceirizados incorporem as ferramentas de segurança de comunicação em seus próprios aplicativos. Quanto mais os recursos podem proliferar, diz a Apple, mais provável é que as crianças obtenham as informações e o suporte de que precisam antes de serem exploradas.
[ad_2]
Matéria ORIGINAL wired