Apple escaneará iPhones en busca de imágenes de abuso sexual infantil

Escrito por el agosto 6, 2021

PA MEDIOS

Apple ha anunciado detalles de un sistema para encontrar material de abuso sexual infantil (CSAM) en los dispositivos de los clientes estadounidenses.


 

Antes de que una imagen se almacene en iCloud Photos, la tecnología buscará coincidencias de CSAM ya conocido.

Apple dijo que si se encuentra una coincidencia, un revisor humano evaluará e informará al usuario a la policía.

Sin embargo, hay preocupaciones de privacidad de que la tecnología podría ampliarse para escanear teléfonos en busca de contenido prohibido o incluso discurso político.

A los expertos les preocupa que la tecnología pueda ser utilizada por gobiernos autoritarios para espiar a sus ciudadanos.

Apple dijo que las nuevas versiones de iOS y iPadOS – que se lanzarán a finales de este año – tendrán “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, mientras se diseña para la privacidad del usuario”.

El sistema funciona comparando imágenes con una base de datos de imágenes conocidas de abuso sexual infantil compiladas por el Centro Nacional de Niños Desaparecidos y Explotados de los Estados Unidos (NCMEC) y otras organizaciones de seguridad infantil.

Esas imágenes se traducen en “hashes”, códigos numéricos que se pueden “emparejar” con una imagen en un dispositivo Apple.

Apple dice que la tecnología también detectará versiones editadas pero similares de imágenes originales.

‘Alto nivel de precisión’

“Antes de que una imagen se almacene en iCloud Photos, se realiza un proceso de coincidencia en el dispositivo para esa imagen con los hashes CSAM conocidos”, dijo Apple.

La compañía afirmó que el sistema tenía un “nivel extremadamente alto de precisión y garantiza menos de uno en un billón de probabilidades por año de marcar incorrectamente una cuenta determinada”.

Apple dice que revisará manualmente cada informe para confirmar que hay una coincidencia. A continuación, puede tomar medidas para deshabilitar la cuenta de un usuario e informar a las fuerzas del orden.

La compañía dice que la nueva tecnología ofrece beneficios de privacidad “significativos” sobre las técnicas existentes, ya que Apple solo aprende sobre las fotos de los usuarios si tienen una colección de CSAM conocidos en su cuenta de iCloud Photos.

Sin embargo, algunos expertos en privacidad han expresado su preocupación.

“Independientemente de cuáles sean los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión (muy influyente), es seguro construir sistemas que escanee los teléfonos de los usuarios en busca de contenido prohibido”, dijo Matthew Green, investigador de seguridad de la Universidad Johns Hopkins.

“Si resultan estar bien o mal en ese punto poco importa. Esto romperá la represa, los gobiernos se lo exigirán a todos”.

Etiquetado como:

Opiniones

Deja un comentario

Tu dirección de correo electrónico no será publicada.Los campos obligatorios están marcados con *



Canción actual

Título

Artista

Social Media Auto Publish Powered By : XYZScripts.com