Esta semana la compañía Apple anunció que agregaría a su sistema, una forma de comprobar que los dispositivos en Estados Unidos no suban a su servicio de almacenamiento iCloud, fotos que coincidan con abuso sexual infantil.
A través de su plataforma de almacenamiento iCloud, Apple buscará la detección de imágenes de abuso infantil, que descarta falsos positivos de uno a un billón, además que pasaría por una revisión manual por parte de ejecutivos y un informe sobre el usuario a la policía.
Esta decisión se tomó en busca de responder a los departamentos de policía y ayudar a frenar los casos de abusos sexuales a menores de edad, respetando la privacidad y seguridad de sus usuarios.
Ante la noticia John Clark, director ejecutivo del Centro Nacional para Niños Desaparecidos y Explotados en Estados Unidos, dijo que “Con tanta gente que utiliza los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños, que están siendo seducidos en línea y cuyas horribles imágenes están circulando en material de abuso sexual infantil”.