Facebook ya detecta los abusos sin necesidad de que nadie los denuncie como inapropiados

Facebook ha anunciado su apuesta por la inteligencia artificial, el aprendizaje automático y la visión artificial como armas contra la batalla para eliminar el contenido perjudicial o abusivo dentro de la plataforma.

Hasta ahora existían dos formas en Facebook para detectar contenido incorrecto como como videos terroristas, incitación al odio, pornografía o violencia. Una se basa en despublicarlo cuando alguien lo marca como incorrecto, y la otra consiste en encontrar este contenido mediante la tecnología.

En la segunda jornada de la conferencia para desarrolladores F8 que se celebra en San José se han anunciado importantes avances en este segundo método, basados en la inteligencia artificial, el aprendizaje automático y la visión artificial.

Gracias a estas herramientas ahora Facebook puede encontrar mucho más contenido incorrecto y eliminarlo de forma más rápida, ya que no tienen que esperar que alguien lo marque como inapropiado. En el primer trimestre de 2018, Facebook eliminó con este sistema casi dos millones de piezas de contenido de ISIS y Al Qaeda, de las cuales el 99% se eliminó antes de que alguien lo denunciara como inapropiado.

Facebook ha tardado en desarrollar esta tecnología y continua trabajando para mejorarla, mediante el análisis de ejemplos concretos de contenido inapropiado, de manera que se identifiquen patrones de comportamiento que sirvan para “educar” el software para que pueda detectar contenidos y situaciones similares.

En concreto, se está utilizando la inteligencia artificial, el aprendizaje automático y visión artificial para detectar desnudez y violencia gráfica, discursos de odio y propaganda terrorista, pero también cuentas falsas y spam. Además, se quiere aplicar la tecnología a detectar y prevenir posibles casos de suicidio

La principal dificultad de este tipo de tecnología, explica el vicepresidente Guy Rosen, es la gran cantidad de datos que se necesitan para reconocer patrones de comportamiento significativos.

Otro hándicap para el desarrollo de esta función es la barrera idiomática, por lo que la compañía está trabajando, a través de su Facebook AI Research (FAIR), en un área llamada embeddings multilingües para abordar el desafío de las lenguas.

En este sentido, Facebook también reconoce que todavía necesita moderadores humanos para revisar el contenido del discurso de odio marcado para que no se den casos de censura accidental de publicaciones que son sarcásticas o que en realidad critican el discurso de odio.

Por otra parte, Facebook ha mejorado la tecnología para que sus computadoras pueden reconocer mejor objetos en fotos. Lo han hecho gracias al estudio de 3,5 mil millones de fotos de Instagram, explicó el director de Aprendizaje Automático Aplicado en Facebook, Srinivas Narayanan, en el segundo dia de F8.

Uno de los principales problemas en este caso es el de no disponer de suficientes fotos etiquetadas correctamente para que el sistema pueda entender la imagen que contienen. Por ejemplo, para que un ordenador pueda identificar una manzana en una foto, antes tiene que haber “entrenada” viendo fotos de manzanas correctamente etiquetadas.

Facebook ha ofrecido acceso a su nuevo centro en línea, Facebook.ai, para que desarrolladores que trabajan con aprendizaje automático, redes neuronales e inteligencia artificial puedan acceder a las herramientas y el código abierto, incluida una nueva versión de su framework AI PyTorch 1.0.