A Apple não está recolhendo dados das bibliotecas privadas dos celulares iPhone, afirmou o gigante de TI dos EUA em um documento de perguntas frequentes.
Assim, a empresa norte-americana diz que o software de Proteções Ampliadas para Crianças apenas faz verificações com cópias on-line de "imagens sexualmente explícitas" criptografadas, e só em contas de crianças verificadas com controle parental configurado.
Nessas condições, as fotos que constituem Material de Abuso Sexual Infantil (CSAM, na sigla em inglês) recebidas ou enviadas em Mensagens serão obscurecidas, sendo a criança advertida e assegurada ajuda contra a visualização das imagens.
Segundo a Apple, a verificação de imagens para esse fim também ocorre na plataforma de nuvem iCloud, da qual a função Fotos faz parte, mas sem enviar dados pessoais à empresa. Isso significa que quem não usar o serviço iCloud Fotos não é afetado por estas medidas, de acordo com a Apple.
As imagens são apenas comparadas com fotos do Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC, na sigla em inglês) dos EUA, "não há relatórios automatizados para as autoridades policiais" e a empresa realiza uma análise humana antes de submeter um relatório para as autoridades, é indicado no documento.
"Já enfrentamos demandas para construir e implantar mudanças mandatadas pelo governo que degradam a privacidade dos usuários, e temos recusado firmemente essas demandas. Continuaremos a recusá-las no futuro. Sejamos claros, esta tecnologia se limita a detectar o CSAM armazenado no iCloud e não acederemos a nenhum pedido do governo para expandi-la", disse a Apple.
Defensores da privacidade on-line têm criticado os gigantes de TI, incluindo a Apple, por violações da privacidade de usuários.