Apple ha dado de que hablar en los últimos días, al presentar un “pequeño” cambio en el futuro. Se aplicará una tecnología que pueda identificar imágenes inadecuadas en los dispositivos. No solo de fotografías guardadas en ICloud, sino en el almacenamiento local.
NeuralMatch fue entrenado con 200 mil imágenes conocidas de abuso sexual infantil, estas fueron proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados. Se plantea añadir este sistema como actualización del software a finales del año, iniciando en dispositivos Estadounidenses.
Podríamos reconocer que las intenciones son buenas, pero las dudas de muchos usuarios e incluso expertos en seguridad radican en el uso correcto de esta tecnología. Pensando en su uso con otros fines, por ejemplo, Políticos.
Un sistema muy poderoso que en las manos equivocadas, pueda generar más daño que beneficio.
Te puede interesar: Los nuevos términos y condiciones de WhatsApp 2021