Todos hemos sido testigos de las campañas publicitarias a las que Apple ha recurrido en los últimos años. Y es que de un tiempo para acá, lo más atractivo e importante en un smartphone ha sido la cámara.
No importa nada más que la cámara. En un análisis quizá un poco escueto pero lógico, podemos entenderlo como la consecuencia natural ante la fuerte demanda de las redes sociales. Se han convertido en el medio en donde la documentación de nuestras vidas se exige cada vez más y más, acompañada, claramente, de una nitidez y buena resolución en las imágenes que mostramos.
Asimismo, tiene sentido que las industrias telefónicas estén trabajando cada vez más en la constante mejora de las cámaras en nuestros dispositivos móviles. Sin embargo, ¿quién ha cuestionado la seguridad?
Incluso cuando algunas noticias nos han llamado a la advertencia de nuestra vulnerabilidad en el mundo virtual y la seguridad digital, muy pocas veces reflexionamos enteramente en ello. Sin embargo, nunca es tarde para hacerlo. Sobre todo ahora que Apple ha redirigido su campaña publicitaria a este tema. La fotografía y la promesa de hacer que tus fotos parezcan de galería de arte pasó de estar en primer plano a uno segundo, para que el protagonismo se lo quitara el tema de la seguridad digital.
A inicios del mes de agosto, Apple presentó una serie de tres medidas diseñadas para proteger a las infancias en varias formas. Primeramente, nos encontramos con un triple sistema de más información mediante Siri, de escaneo del contenido de iCloud Fotos para poder identificar pornografía infantil y un sistema de prevención ante imágenes explícitas en iMessage para usuarios menores de 13 años.
Estas medidas se incluirán en iOS 15, iPadOS 15 y macOS12. Esto con el fin de extender las protecciones para las infancias. Además, todo con la promesa de respetar la privacidad de todos los datos.
La detección de imágenes de menos en las fotos de iCloud y las medidas de seguridad de iMessage ante fotos explícitas son medidas de seguridad que nos llevan a reflexionar sobre la seguridad digital
La nueva función que integrará Apple ante el sistema de seguridad sobre las comunicaciones de iMessage en detectar y bloquear imágenes explícitas en conversaciones con usuarios menores de 13 años, hará que los padres puedan configurar la privacidad y seguridad de sus hijos.
Sin embargo, en caso de recibir una imagen de este tipo, el usuario menor de edad podrá acceder a ella. Esto porque el sistema avisará que la imagen podría ser sensible y explica la situación en tres incisos:
- Que las fotos sensibles muestran partes del cuerpo que se cubren con bañadores.
- Que estas imágenes pueden usarse para herir la sensibilidad
- O que la persona que aparece en ellas puede que no quiera ser vista.
Tras estas explicaciones, saldrá la opción de “No ver la foto” o “Ver la foto”
Al ser elegida la segunda opción, el sistema advierte a los padres o tutores. Igualmente, advertirá al menor con el siguiente mensaje: Es tu elección, pero tus padres quieren saber que estás a salvo. Igualmente, saldrán sugerencias que lo invitarán a que no comparta nada que no quiera y que hable con alguien de confianza si se siente presionado.
¿Cómo funciona este sistema?
Todo se lo debemos a machine learning que habita en los dispositivos mencionados anteriormente. Este sistema analiza las imágenes recibidas y también enviadas mediante iMessage para presentar los avisos oportunos.
Este procesamiento ocurre de manera local en el dispositivo, por lo que nadie, ni siquiera Apple, tiene acceso a los mensajes, asegurando así la seguridad de iMessage.
Sobre la detección de imágenes de menores en iCloud
La otra medida que Apple ha anunciado que implementará es la detección de imágenes de menores en las fototecas de iCloud. Al igual que el anterior, se trata de un sistema que mantiene la privacidad de todos los usuarios, y que permitirá informar a los organismos competentes si se detectan imágenes que infrinjan la ley y vulnera la seguridad de las infancias.
Uno pensaría que sería a través de un escaneo de imágenes, por lo que la seguridad queda vulnerada. Sin embargo, Apple plantea un sistema que compara las imágenes de los dispositivos contra una base de datos de forma local. Esta base de datos se encuentra almacenada de manera segura en el dispositivo y contiene unas versiones de hash de imágenes reportadas por los organismos responsables, haciendo que su contenido sea completamente ilegible.
Este sistema funciona de forma que antes de que cualquier imagen se suba a la nube el dispositivo genera un hash de la misma y lo compara de forma local con los hashes mencionados. El resultado es ilegible, por lo que en lugar de analizarse ahí el sistema envía una especie de voucher encriptado que se sube a las fotos de la nube junto con la imagen.
Sobre esto, hablamos de una tecnología llamada secreto compartido mediante umbral. Es decir, la clave para descifrar el contenido se divide en X pedazos. Una vez que haya suficientes vouchers en una cuenta, Apple recibe todos de la clave completa y descifra el contenido. El umbral de estos vouchers está configurado de tal manera que hay una única posibilidad entre un millón de millones por año de marcar cierto contenido incorrectamente, según la compañía.
¿Qué pasa en caso de recibir contenido sensible e ilegal? Apple recibe un reporte en el que analiza las imágenes y de ser infractores a la ley, Apple suspende la cuenta e informa a las autoridades correspondientes. Igualmente, ofrece un sistema de apelación para reinstaurar la cuenta si el usuario considera que se ha cometido un error.
Descubre los mejores dispositivos móviles sólo en Sanborns.