La empresa dio detalles sobre un nuevo sistema que buscará coincidencias entre las imágenes en un dispositivo y otras ya conocidas de abuso infantil
- 3 minutos de lectura'
Apple anunció detalles de un sistema para detectar material de abuso sexual infantil en los dispositivos de sus clientes estadounidenses. Antes de que una imagen se almacene en iCloud Photos, el sistema buscará similitudes entre las imágenes en el dispositivo y otras ya conocidas de abuso infantil.
Apple afirmó que si se encuentra una coincidencia, un revisor humano evaluará e informará sobre el usuario a la policía. Sin embargo, el anuncio ha generado temores de que la tecnología pueda expandirse y permita escanear teléfonos en busca de otros materiales prohibidos, incluso contenidos políticos en dispositivos de disidentes.
Expertos en privacidad expresaron preocupación porque gobiernos autoritarios puedan utilizar esta tecnología para espiar a sus ciudadanos.
Nuevas aplicaciones
Apple anunció que las nuevas versiones de iOS y iPadOS, que se lanzarán a finales de este año, tendrán “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de material de abuso sexual infantil en línea, teniendo en cuenta a la vez la privacidad de los usuarios”.
El sistema funciona comparando fotos con una base de datos de imágenes de abuso sexual infantil compiladas por el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (US National Center for Missing and Exploited Children o NCMEC) y otras organizaciones de protección infantil.
Esas imágenes se traducen en códigos numéricos que pueden “coincidir” con el de una imagen en un dispositivo Apple. La compañía agregó que el sistema también capturará versiones editadas pero similares de imágenes originales.
“Alto nivel de precisión”
“Antes de que una imagen se almacene en iCloud, se cotejará esa imagen con los códigos numéricos de fotos de abuso infantil conocidas”, afirmó Apple.
La compañía señaló que el sistema tiene un “nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”. Apple dijo que revisará manualmente cada informe para confirmar que hay una coincidencia.
Y luego podría deshabilitar la cuenta de un usuario e informar a las autoridades.
Apple aseguró que la nueva tecnología ofrece beneficios de privacidad “significativos” sobre los sistemas existentes, ya que la empresa solo analizará las fotos de los usuarios si estos tienen una colección de imágenes de abuso sexual infantil conocidas en su cuenta de iCloud.
Sin embargo, algunos expertos en privacidad expresaron su preocupación. ”Independientemente de los planes a largo plazo de Apple, enviaron una señal muy clara. En su opinión (muy influyente), está bien construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido”, afirmó Matthew Green, experto en criptografía de Universidad Johns Hopkins.
“No importa si tienen razón o no en ese punto. Esto equivale a ‘abrir las compuertas’; los gobiernos pedirán esta tecnología”, concluyó.
Otras noticias de Privacidad en la era digital
¿Quién sos? Modifican unos anteojos inteligentes para identificar a cualquier persona en la calle usando inteligencia artificial
Acusado de no moderar el contenido de los chats. Si Telegram es inexpugnable, ¿por qué detuvieron a su creador en París?
¡Basta de spam! WhatsApp bloqueará automáticamente a los usuarios desconocidos que te envíen muchos mensajes sin aviso
Más leídas de Tecnología
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Infancias. Cómo activar el "modo Peter Pan" en WhatsApp
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo