Apple escaneará iPhones en busca de fotos de abuso infantil
La compañía presentó nuevas herramientas para identificar de manera más efectiva el contenido de pornografía infantil en sus dispositivos y servicios. Pero algunos expertos en seguridad informática temen que esto abra la caja de pandora de la vigilancia masiva.
Por Sébastian Seibt (*)
La reconocida marca de la manzana, que ha construido parte de su reputación en la protección de datos personales, presentó un nuevo dispositivo el jueves 5 de agosto, que sorprendió los expertos en privacidad en línea.
La herramienta se denomina “NeuralMatch”, que tiene un objetivo imposible de criticar: luchar contra la pornografía infantil. Apple, en una actualización que se implementará el próximo mes iniciando en Estados Unidos, planea usar inteligencia artificial y criptografía para escanear fotos almacenadas localmente en iPhones y iPads e identificar si alguna está relacionada con pornografía infantil.
¿El ‘Gran Hermano’ respeta la privacidad?
El grupo estadounidense ya puede controlar las imágenes en iCloud, el servicio de respaldo del servidor remoto de Apple. Esto también es lo que están haciendo sus principales competidores, como Google, Dropbox o OneDrive de Microsoft.
Pero los creadores de iPhone van mucho más allá mientras se preparan para analizar las imágenes que los usuarios aún no han decidido poner en los servidores de iCloud. ‘’La iniciativa de Apple puede cambiar las reglas de juego’’, dijo John Clark, presidente del Centro Nacional para Niños Desaparecidos y Explotados (NCEM, por sus siglas en inglés), la principal organización estadounidense contra la explotación de menores, entrevistado por ‘The Wall Street Journal’.
Esta herramienta le permite a la empresa Apple hacerle entender a los usuarios de sus dispositivos que no pueden tener ningún jardín secreto, ni siquiera en los rincones más oscuros de sus teléfonos inteligentes. Sin embargo, este nuevo ‘Gran Hermano’ sería lo más respetuoso posible, en cuanto a la privacidad de sus usuarios.
Si la Inteligencia Artifical descubre múltiples imágenes en el disco duro de un iPhone que también estarían en la lista de NCEM, las fotos se envían directamente a un empleado de Apple, quien luego podrá verlas con más “claridad” para asegurarse de que efectivamente se trata de pornografía infantil. Para Apple, estas medidas de seguridad hacen de NeuralMatch un dispositivo que no es demasiado intrusivo. “Si almacena una colección de fotos de abuso infantil, tendrá problemas; pero para otros no hará ninguna diferencia”, afirmó Erik Neuenschwander, jefe de asuntos de privacidad de Apple, entrevistado por ‘The New York Times’.
Este nuevo dispositivo “está claramente hecho para tranquilizar a las autoridades y dar promesas de buena voluntad a la policía”, indicó Riana Pfefferkorn, especialista de temas de cibervigilancia del Observatorio de Internet de la Universidad de Stanford, durante una mesa redonda entre varios expertos en ciberseguridad con respecto al anuncio de Apple.
Una investigación de ‘The New York times’ de 2019 había demostrado que la lucha contra la pornografía infantil era uno de los puntos débiles de todas las principales plataformas de Internet. Y Apple está, hasta ahora, muy atrasado en comparación con otros servicios en la detección de contenido ilegal. “En 2019, Facebook reportó 15,8 millones de contenido pornográfico infantil, contra 205 de Apple. Claramente, hay un problema de subestimación de la cantidad de imágenes ilegales que circulan gracias a los servicios de Apple”, señaló Casey Newton en Twitter, uno de los periodistas estadosunidenses más reconocidos en el área de las nuevas tecnologías.
¿El comienzo de los problemas?
Según los informes, Apple también se está preparando para fortalecer la protección de datos en iCloud mediante la introducción de cifrado de extremo a extremo (lo que significa que todos los archivos guardados en la nube serán ilegibles para Apple) en los próximos meses. “Esta es una decisión que se esperaba hace mucho tiempo, y el anuncio que acaba de hacerse puede ser una forma en la que Apple tranquilice a las autoridades haciéndoles entender que aún será posible detectar contenido ilegal a pesar de la codificación”, explicó Riana Pfefferkorn.
Pero para multiplicar las promesas a la policía que tanto la han criticado en el pasado, Apple habría recorrido un largo camino, según varios especialistas en cibervigilancia. “Es un dispositivo terrible que inevitablemente convertirá nuestras computadores, iPhones y iPads en herramientas de vigilancia masivas”, aseveró Ross Anderson, especialista en en seguridad informática de la Universidad de Cambridge en entrevista con ‘Financial Times’.
“Así es como se establece la vigilancia electrónica. Primero por los motivos más nobles, luego para buscar imágenes de armas, encontrar fotos de protestas, tomar capturas de pantalla sobre las mismas manifestaciones, etc.”, advirtió en Twitter John Hamasaki, un abogado estadounidense especializado en derecho penal.
Apple, de hecho, habría abierto una caja de Pandora al desarrollar una herramienta de inteligencia artifical que escanea fotos directamente en teléfonos inteligentes o tabletas. “A partir de ahora, basta con cambiar algunos parámetros en el algoritmo para permitirle encontrar otro tipo de fotos”, se aseguró en un comunicado publicado el jueves por Electronic Frontier Foundation, una de las principales ONG estadounidenses que luchan por la protección de la privacidad en internet.
“Los gobiernos, incluido el de Estados Unidos, inevitablemente pedirán a Apple que adapte este dispositivo a la lucha contra el terrorismo. Y sabemos cómo esta noción puede tener diferentes significados de un país a otro”, señaló David Thiel, director técnico del Observatorio de Internet de la Universidad Stanford, durante una mesa redonda dedicada a la iniciativa de Apple. La lucha contra el terrorismo ha sido, por ejemplo, el pretexto utilizado por China para su política de persecución de la minoría musulmana, los Uigures.
Y, ¿después del terrorismo? “Puedo imaginar muy bien que la industria de la música y el cine está exigiendo que Apple adapte esta tecnología para encontrar archivos que violen los derechos de autor”, indicó Riana Pfefferkorn.
“Es mejor confiar en que las directivas de Apple no cederán nunca a todas estas demandas. A partir de ahora, la confianza es todo lo que nos queda para evitar los deslices de esta tecnología”, lamentó en Twitter Matthew Green, investigador de la Universidad John Hopkins en Baltimore.
A la espera de ver si los pronósticos de estas novedades tecnológicas se hacen realidad, este dispositivo sigue alimentando el gran debate sobre dónde poner el límite de la libertad individual en nombre de la lucha por las causas más nobles.
Este artículo fue adaptado de su original en francés
(*) France24