Getty Images
Lucha de Apple contra el abuso infantil suscita dudas sobre la privacidad de los datos
Apple está lanzando funciones para detectar imágenes de abuso infantil en fotos y mensajes. Sin embargo, los expertos en privacidad de datos tienen algunas dudas sobre el uso que podría darse a esta tecnología.
Apple está poniendo en marcha una nueva tecnología para combatir la difusión de imágenes de abusos a menores que ha suscitado preocupación por la privacidad de los datos.
Apple planea introducir nuevas funciones de seguridad infantil para limitar la difusión de material de abuso sexual de menores, según anunció la compañía el 5 de agosto.
En primer lugar, Apple permitirá que su aplicación Mensajes utilice el aprendizaje automático en el dispositivo para advertir a los niños y a los padres que supervisan el uso de iOS sobre el contenido sensible, aunque Apple dijo que las comunicaciones privadas serán ilegibles para la empresa. En segundo lugar, iOS y iPadOS utilizarán aplicaciones de criptografía para detectar colecciones de imágenes de abuso infantil en las fotos de iCloud y alertar a las fuerzas de seguridad. En tercer lugar, Siri y Apple Search «intervendrán» cuando un usuario intente buscar contenido de abuso infantil. Las nuevas funciones llegarán a finales de este año en las actualizaciones de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey, según Apple. Apple no dijo si los usuarios pueden optar fácilmente por las nuevas características.
La privacidad de los datos en riesgo
Desde que Apple hizo el anuncio, expertos en privacidad de datos como Matthew Greene, profesor asociado del Instituto de Seguridad de la Información de Johns Hopkins, han hecho sonar las alarmas.
En Twitter y en un ensayo del New York Times, Greene reconoció que las herramientas forman parte de un esfuerzo por detener la difusión de imágenes de abusos a menores, pero subrayó que también podrían abrir la puerta a una mayor vigilancia de los datos personales.
Maybe Apple will reverse course and maybe they don’t. But I don’t think they have come to terms with the deep well of antipathy and mistrust this move is going to create. It’s going to be with them for years, undoing billions of dollars in priceless customer trust and marketing. pic.twitter.com/ZgbQl1vYPC
— Matthew Green (@matthew_d_green) August 7, 2021
Steven Murdoch, profesor de ingeniería de seguridad del University College de Londres, condenó las nuevas funciones, tuiteando que existe el «riesgo de que el sistema de detección de imágenes de abuso infantil de Apple se extienda a otros contenidos, independientemente de lo que Apple quiera que ocurra».
Dan Clarke, presidente de productos y soluciones de la empresa de tecnología y cumplimiento de privacidad de los datos, IntraEdge, también considera que las herramientas son un arma de doble filo, aunque su preocupación se centra menos en el control de Apple y más en la forma en que las herramientas podrían ser manipuladas por otros.
Él dice que cree que Apple ha logrado un «equilibrio bastante bueno entre una causa noble y la privacidad».
«La forma en que la característica funciona, según entiendo, es que solo buscaría imágenes conocidas, las que han sido etiquetadas por un ser humano para decir: ‹Eso es abusivo›», dijo Clarke. «No quieres tener un millón de fotos de tu nieto bañándose inocentemente que de alguna manera desencadenen esto. Así que han tratado de abordarlo».
A Clarke le preocupa que los usuarios puedan abusar de las herramientas.
«Me parece que han puesto todas las restricciones adecuadas. ¿Pero qué pasa con los malos actores? ¿Qué pasa con alguien que decide que quiere utilizar esta tecnología?», dijo Clarke. «Ahí es donde creo que empiezan a surgir verdaderas preocupaciones».
En su sitio web, Apple incluye documentos que explican el esfuerzo y la tecnología utilizada para implementarlo, incluyendo la privacidad de los datos y las medidas de seguridad que la compañía está tomando. Uno de los métodos utilizados para proteger la privacidad de los datos de los usuarios es la búsqueda únicamente de imágenes conocidas de abusos a menores, información proporcionada por organizaciones de seguridad infantil como el Centro Nacional para Niños Desaparecidos y Explotados.
Makenzie Holland es redactora de noticias que cubre tecnología y regulación federal. Antes de unirse a TechTarget, fue reportera general para el Wilmington StarNews y reportera de delitos y educación en el Wabash Plain Dealer.