La herramienta se llama “neuralMatch” y buscará imágenes en las cuentas de sus usuarios
La compañía Apple presentó las nuevas herramientas con las que buscarán detectar imágenes sexuales de niños almacenadas en su servidor iCloud, los casos serían reportados a las autoridades.
Lee Manchester City no fichará a Messi“Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de pornografía infantil”, informó la empresa.
La herramienta se llama “neuralMatch” y tiene el objetivo de hallar imágenes de abuso sexual infantil previamente identificadas sin interferir con los mensajes de los usuarios.
Apple también trabaja en el sesarrollo de una herramienta con funciones en su asistente Siri para evitar cuando los usuarios busquen material abusivo.
La herramienta funcionará detectando fotos, si Apple detecta fotos de niños sexualmente explícitas en alguna cuenta, las instancias serán revisadas manualmente por la empresa e informadas al Centro Nacional para Niños Desaparecidos y Explotados que trabaja con agencias judiciales.La imagen será revisada por un trabajador, quien notificará a las autoridades si es necesario.“Los expertos son capaces de hacerlo con bastante facilidad'”, alertó Green.La noticia generó preocupación al cuestionar preocupación al cuestionar la posibilidad de que el sistema sea utilizado por los gobiernos para espiar a sus ciudadanos.
Foto Especial
vab
Visitas: 761