El diario plural del Zulia

Apple verificará todas las fotos en iCloud con el sistema de abuso infantil

La revelación se produjo en una serie de reuniones informativas para los medios en las que Apple busca disipar la alarma por su anuncio la semana pasada de que escaneará los teléfonos, tabletas y computadoras de los usuarios en busca de millones de imágenes ilegales.

Apple Inc. dijo este lunes que se revisarán todas las bibliotecas de fotos de los usuarios de iPhone en busca de imágenes conocidas de abuso infantil si están almacenadas en el servicio iCloud en línea.

La revelación se produjo en una serie de reuniones informativas para los medios en las que Apple busca disipar la alarma por su anuncio la semana pasada de que escaneará los teléfonos, tabletas y computadoras de los usuarios en busca de millones de imágenes ilegales.

Mientras que Google, Microsoft y otras plataformas tecnológicas verifican las fotos cargadas o los archivos adjuntos enviados por correo electrónico con una base de datos de identificadores proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados y otras cámaras de compensación, los expertos en seguridad criticaron el plan de Apple por considerarlo más invasivo.

Algunos dijeron que esperaban que los gobiernos buscaran obligar al fabricante del iPhone a expandir el sistema para buscar otro material en los dispositivos.

En una publicación en su sitio web el domingo, Apple dijo que lucharía contra esos intentos, que pueden ocurrir en tribunales secretos.

"Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas", escribió Apple. "Continuaremos rechazándolos en el futuro".

En la sesión informativa del lunes, los funcionarios de Apple dijeron que el sistema de la compañía, que se implementará este otoño con el lanzamiento de su sistema operativo iOS 15, verificará los archivos existentes en el dispositivo de un usuario si los usuarios tienen esas fotos sincronizadas con los servidores de almacenamiento de la compañía.

Julie Cordua, directora ejecutiva de Thorn, un grupo que ha desarrollado tecnología para ayudar a los funcionarios encargados de hacer cumplir la ley a detectar el tráfico sexual, dijo que aproximadamente la mitad del material de abuso sexual infantil tiene formato de video.

El sistema de Apple no verifica los videos antes de que se carguen en la nube de la compañía, pero la compañía dijo que planea expandir su sistema de formas no especificadas en el futuro.

Apple ha estado bajo presión internacional por el bajo número de informes de material abusivo en comparación con otros proveedores. Algunas jurisdicciones europeas están debatiendo legislación para que las plataformas sean más responsables de la difusión de dicho material.

Los ejecutivos de la compañía argumentaron el lunes que las verificaciones en el dispositivo preservan la privacidad más que ejecutar verificaciones en el almacenamiento en la nube de Apple directamente. Entre otras cosas, la arquitectura del nuevo sistema no le dice nada a Apple sobre el contenido de un usuario a menos que se haya superado un número umbral de imágenes, lo que luego desencadena una revisión humana.

Los ejecutivos reconocieron que un usuario podría verse implicado por actores malintencionados que obtienen el control de un dispositivo e instalan de forma remota material conocido de abuso infantil. Pero dijeron que esperaban que tales ataques fueran muy raros y que, en cualquier caso, una revisión buscaría otros signos de piratería criminal.

Lea también
Comentarios
Cargando...