Xataka – Apple escaneará automáticamente las fotos del iPhone y iCloud en busca de pornografía infantil

La fotografías subidas a iCloud desde el iPhone van a ser verificadas. Apple ha anunciado un nuevo sistema que permite buscar de forma automática contenido de abuso sexual a menores y similares. Mediante ello detecta este tipo de contenido prometiendo al mismo tiempo seguir respetando la privacidad del usuario.


El nuevo sistema está pensado para ayudar a las autoridades a hacer cumplir la ley y proteger a los menores. En principio, va a ser activado en Estados Unidos a finales de este año. Aunque en realidad tan sólo una de varias características que van a habilitar para proteger a menores de peligros online, como han anunciado en una declaración oficial.

El escaneo de fotografías en busca de contenido de abuso a menores en realidad no es nuevo. Servicios como Google Drive ya lo hacen también. La diferencia principal aquí es que Apple ha prometido desde un principio a los usuarios una nube cifrada y un contenido al que nadie puede acceder sin las claves de acceso. Y, en teoría, sigue siendo así.

Cómo se detecta el contenido ilegal sin mirar las fotos

Con NeuralHash, un nuevo sistema de Apple que permite identificar si el usuario carga imágenes con pornografía infantil (o contenido ilegal relacionado) en iCloud. Lo hace sin descifrar las imágenes y haciendo uso de un sistema homomórfico que comprueba hashes contra una base de datos de imágenes ya conocidas y reportadas previamente.

Apple dice que ni siquiera ellos pueden saber qué hay en esas fotografías. A menos, claro, que se cruce un umbral de contenido ilegal conocido. Si el sistema detecta la posibilidad de que haya un contenido significante de imágenes ilegales, se le avisa a Apple y se revisa manualmente el informe para confirmar que hay una coincidencia alta. En ese momento se deshabilita la cuenta del usuario y se envía un informe a las autoridades.

En otras palabras, Apple asegura que no vulneran la privacidad de los usuarios con este nuevo sistema. Para ello sólo analizan imágenes antes de que sean subidas a iCloud y en el dispositivo del usuario. Sólo si el sistema detecta una colección de imágenes de abuso infantil que coinciden con una base de datos ya establecida, comprobarán el contenido y será enviado a las autoridades.

Fotografías difuminadas en Mensajes y ayuda de Siri

Aparte de este sistema de revisión de imágenes, la compañía introducirá una serie de herramientas para proteger mejor a los menores usado el iPhone. Por ejemplo, la app Mensajes detectará automáticamente imágenes sexualmente explícitas y las difuminará. Una alerta saltará y le indicará al niño que puede encontrarse detrás de esa imagen si desea abrirla. Así mismo, se le avisará de que los padres serán avisados y verán la fotografía también.

Así mismo, Siri, el asistente virtual de Apple, ofrecerá ayuda a los usuarios en relación a contendido de abuso sexual a menores. Si el usuario busca cómo reportar contenido de abuso sexual se le llevará a recursos y herramientas para hacerlo. Por otro lado, si el usuario busca contenido de abuso sexual en sí, se le informará de que puede ser dañino y problemático.

Más información | Apple


La noticia

Apple escaneará automáticamente las fotos del iPhone y iCloud en busca de pornografía infantil

fue publicada originalmente en

Xataka

por
Cristian Rus

.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *