Na CES 2019, maior evento de produtos eletroeletrônicos do mundo, que acontece anualmente em Las Vegas, a Apple fez uma publicidade para reforçar a segurança de seu smartphone na questão da privacidade.

Em uma propaganda que brincava com uma popular frase sobre Las Vegas, o anúncio dizia: “What happens on your iPhone, stays on your iPhone”. Traduzido, seria algo como: “O que acontece no seu iPhone, fica no seu iPhone.”

Agora, a Apple está subvertendo essa lógica por uma causa das mais nobres, mas que pode trazer ameaças à privacidade de todos os seus usuários.

A Apple planeja lançar um software para o iPhone projetado para identificar e relatar coleções de imagens de exploração sexual de crianças.

Com lançamento previsto para uma atualização para usuários dos EUA ainda este ano, o software é parte de uma série de mudanças que a Apple está preparando para o iPhone para proteger as crianças de predadores sexuais, informou a empresa nesta quinta-feira, 5 de agosto.

O sistema da Apple usará novas técnicas de criptografia e inteligência artificial para identificar material de abuso sexual infantil quando armazenado no iCloud Photos.

A Apple detectará se as imagens no dispositivo correspondem a um banco de dados conhecido dessas imagens ilegais. Se um certo número deles são carregados no iCloud Photos, o sistema alertaria uma equipe de humanos, que então entrariam em contato com as autoridades. O esquema será implementado inicialmente apenas nos EUA.

A proposta é uma tentativa da Apple de encontrar um meio termo entre sua própria promessa de proteger a privacidade dos clientes e as demandas de governos, agências de aplicação da lei e defensores da segurança infantil por mais assistência em investigações criminais, incluindo terrorismo e pornografia infantil.

Mas pesquisadores de segurança estão preocupados que isso possa abrir a porta para que governos ao redor do mundo usem esse recurso para buscar acesso aos dados pessoais de seus cidadãos, muito além da intenção original.

O temor é que, apesar de o sistema ser treinado para detectar abuso infantil, ele possa ser adaptado para procurar qualquer outro tipo de imagem.

“É uma ideia absolutamente terrível, porque vai levar a uma vigilância distribuída em massa de nossos telefones e laptops”, disse Ross Anderson, professor de engenharia de segurança da Universidade de Cambridge, ao Financial Times (FT).

Outra pesquisador concordou. “Isso vai quebrar a barragem: os governos vão exigir isso de todos”, disse Matthew Green, professor de segurança da Universidade Johns Hopkins, ao FT.

Por outro lado, organizações que combatem a exploração sexual de crianças saudaram a medida.

“A proteção ampliada da Apple para crianças é uma virada de jogo”, disse John Clark, presidente e CEO do Centro Nacional para Crianças Desaparecidas e Exploradas, em um comunicado. “A realidade é que a privacidade e a proteção da criança podem coexistir”.

A Apple informou também que seu software não foi projetado para vigilância em massa ou para a varredura de conteúdo em seus dispositivos.

Mas a discussão está lançada: seria o sistema uma ameaça à privacidade de milhões de usuários da Apple ou uma ferramenta útil para combater o abuso sexual infantil?

Nesta época, em que a tecnologia digital é cada vez mais parte do cotidiano de bilhões de pessoas, esse é um debate que vai ficar cada vez mais acirrado.