Todos los Derechos reservados © 2004 - 2019, Forbes Colombia

Tecnología

Apple retrasa controversial función que escanea fotos en iPhones para detectar abuso sexual infantil

Apple retrasará el lanzamiento después de que a los críticos les preocupara que el escaneo de su iPhone amenazara la privacidad del usuario. Debido a que llegará con iOS 15, ahora no está claro cuándo se lanzará el escáner CSAM.

Publicado

on

Foto: Unplash.

Apple aparentemente ha estado escuchando a sus críticos. La firma anunció que iretrasará el lanzamiento de una tecnología controvertida que escanearía las fotos del iPhone de los usuarios antes de que subieran a iCloud para verificar si tenían material de abuso sexual infantil (CSAM, por sus siglas en inglés).

En su declaración enviada a varios medios de comunicación, un portavoz dijo: “El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material de abuso sexual infantil. Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica “.

Apple había elaborado planes en los que utilizaría código para escanear archivos de imágenes y compararlos con bases de datos de imágenes CSAM conocidas. Lo haría haciendo que el código en un iPhone no mirara las fotos en sí mismas, sino hash, representaciones alfanuméricas únicas de una imagen. Si los valores hash en el teléfono coincidían con los de las imágenes CSAM conocidas, el personal de Apple verificaría la foto para ver si realmente era material de explotación infantil, antes de decidir si pasar o no la información a los investigadores policiales.

Pero Apple enfrentó una reacción violenta significativa por el lanzamiento de la función, a pesar de sus buenas intenciones de capturar a quienes comparten imágenes y videos de abuso infantil en sus teléfonos y servidores. La principal causa de ansiedad era que Apple estaba haciendo el escaneo en el dispositivo sin el permiso del usuario y que existía la posibilidad de que un gobierno exigiera a Apple que comenzara a escanear en busca de otro contenido que no sea CSAM. China, por ejemplo, podría presionar a Apple para que comience a buscar imágenes que expresen sentimientos contrarios al gobierno, temían los críticos.

Apple buscó disipar los temores publicando una serie de preguntas frecuentes, en las que dijo que nunca se sometería a tales demandas y señaló que el escaneo, aunque ocurrió en iPhones en lugar de iCloud, solo cubriría las fotos que estaban programadas para ir a el iCloud. Los usuarios podían evitar que Apple escaneara sus imágenes simplemente desactivando el uso compartido de fotos con iCloud.

Luego fue más allá, diciendo que solo vería fotos manualmente si se encontraran más de 30 coincidencias en un dispositivo.

Y ahora, un mes después de anunciar la función por primera vez, se está retrasando. Se debía implementar con iOS 15. Ahora no está claro cuándo se implementará en los iPhones de los usuarios.

Siga la información de tecnología en nuestra sección especializada

Publicidad
Publicidad