Una herramienta impide que las redes sociales reconozcan nuestra cara

Un grupo de investigación de la Universidad de Toronto ha creado un software que altera las fotos para mejorar nuestra privacidad. En concreto logra que las personas que aparecen en una imagen no puedan ser reconocidas por las herramientas de reconocimiento de rostros. Por ejemplo las que usa Facebook para lograr detectar a las personas que aparecen en una foto.

Pero este software no sólo sirve para no ser monitorizados por redes sociales, también evita que los numerosos bots que recopilan información en redes sociales como Instagram puedan saber si aparecemos o no en una foto. Esto es fundamental en un internet cada vez más visual. No sólo la información en formato de texto es monitorizada.

Los creadores de este software planean lanzarlo para poder usarlo a través de una web o de una app. El funcionamiento se basa en el aprendizaje profundo, un sistema que usa por ejemplo Google para dotar de ‘inteligencia’ visual a su aplicación Google Fotos.

En el caso de Google el aprendizaje para reconocer imágenes se realiza a través de algoritmos que rastrean millones de imágenes de sus servicios, incluso los fotogramas de los vídeos de Youtube. La herramienta de los investigadores canadienses, que se basa en lo que denominan “entrenamiento con adversarios”, funciona de forma inversa.

Rastrea los patrones de funcionamiento de los algoritmos de reconocimiento facial para entender cómo funcionan y ponerles trampas. Un sistema bastante ingenioso pero que habrá que ver en la práctica hasta que punto es efectivo. Las trampas que pone este software a los sistemas de reconocimiento visual no se basan, por cierto, en distorsionar el rostro.

Como puede verse en la imagen que acompaña a estas líneas, lo que hace este filtro para jugar al despiste es añadir cierto ruido de píxeles a la foto. Estos píxeles, dispuestos de forma inteligente, son los que impiden a los sistemas de reconocimiento de imágenes funcionar correctamente.

Avishek Bose, uno de los investigadores implicados en este proyecto, lo explica así en la web de la Universidad de Toronto: “Si la inteligencia artificial de detección busca la esquina de los ojos, por ejemplo, se ajusta ese detalle de los ojos para que se noten menos. Crea perturbaciones muy sutiles en la foto, pero para el detector son lo suficientemente importantes como para engañar al sistema”.

Otro reto que pueden tener estos investigadores para reforzar la privacidad es que su software logre tender trampas en fotos que no sean solo de rostros. Es sabido que hay empresas que mediante software analizan millones de fotos de Instagram para detectar los productos que aparecen en las fotos. Una información que venden para la realización de estudios de mercado.