Apple está decidido a luchar para mantener la seguridad de los menores. Y es que la compañía acaba de introducir novedades en materia de protección infantil, en concreto, una tecnología criptográfica que limitará la distribución de material de abuso sexual infantil en servicios como iCloud.

Estas herramientas, de las que ha informado Apple en un comunicado donde se dan cuenta de las novedades en materia de protección infantil, están diseñadas por expertos y tienen como objetivo el proteger a los niños de depredadores que usan servicios digitales para contactar con ellos. 

Una de las áreas en las que ha trabajado Apple es las de comunicación, que permitirán a los padres mantenerse informados sobre la navegación en Internet que hacen sus hijos. La app Mensajes utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible, así como que mantendrá las comunicaciones privadas ilegibles para Apple.

En los dispositivos con iOS e iPadOS se utilizarán nuevas apps de criptografía para ayudar a limitar la propagación de este tipo de contenidos online, a la vez que se refuerza la privacidad del usuario.

Del mismo modo, Apple también ha introducido novedades en las actualizaciones de Siri y Search, que brindarán a los padres e hijos información ampliada y ayuda en caso de que se encuentren en situaciones poco seguras. Además, tanto Siri como Search también intervendrán cuando los usuarios intenten buscar temas relacionados.

En cuanto al momento en el que estas actualizaciones y nuevas herramientas llegarán a los dispositivos, desde Apple han informado que será a finales de año para iOS 15, iPadOS 15, watchOS 8 y macOS.

Apple también ha reforzado la seguridad en sus Messages, ya que se incluirán nuevas herramientas para advertir a los niños y a sus padres cuando reciban o envíen fotos sexualmente explícitas. Al recibir este tipo de contenido, la foto se verá borrosa y se advertirá al usuario, preguntando si quiere o no ver esa foto en cuestión. Pero además los padres recibirán un mensaje si los niños deciden ver esa imagen. Algo similar se hará si el usuario menor en cuestión es el que envía este tipo de contenido, advirtiendo a los padres de que quiere enviar ese archivo.

En Messages de Apple se utiliza el aprendizaje automático para analizar los archivos adjuntos de imágenes y determinar si una foto es sexualmente explícita. Desde Apple prometen que la compañía no tendrá acceso a dichos mensajes, ya que la función está diseñada precisamente para evitar esta intromisión en la privacidad del usuario.

Otra de las novedades en relación a la protección infantil es que Apple podrá detectar imágenes que representan actividades sexualmente explícitas que involucran a un menor y que están almacenadas en iCloud Photos. Gracias a esta tecnología, Apple podrá denunciar estos casos al Centro Nacional para Niños Desaparecidos y Explotados.

Desde Apple han asegurado que esta nueva herramienta y tecnologías protegerán la privacidad de los usuarios, ya que antes de que una imagen se almacene en iCloud Photos, se realiza un proceso de comparación en el dispositivo con las imágenes que representan actividades sexualmente explícitas relacionadas con un menor, utilizando para ello una tecnología criptográfica, que determina si hay coincidencia sin revelar el resultado.