Los cambios «suponen un cambio significativo de los protocolos de privacidad y seguridad establecidos hace tiempo», dijo por su parte el CDT.
La empresa informática Apple presentó este jueves (05.08.2021) nuevas herramientas para detectar de manera más eficaz las imágenes de contenido sexual que involucran a niñas o niños en su iPhone, iPad y su servidor iCloud en Estados Unidos, lo que suscita preocupaciones entre quienes defienden la privacidad en Internet.
«Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de pornografía infantil», dijo el grupo en su página. La compañía usará herramientas de cifrado que analicen y vinculen imágenes que consideren sospechosas con un número específico para cada una.
También planea comparar las fotos cargadas en iCloud con las almacenadas en un archivo administrado por el Centro Nacional de Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), una corporación privada estadounidense que trabaja para reducir la explotación sexual infantil. Apple asegura que no tiene acceso directo a las imágenes. Cuando una foto se parezca a alguna del archivo, Apple la revisará manualmente, deshabilitará la cuenta del usuario si es necesario y enviará un informe al NCMEC.