En busca de la verdad
Facebook, intenta poner filtros de noticias moderados por humanos y basados en Inteligencia Artificial. El éxito de esta medida es controvertido. Una cosa es identificar una historia falsa en particular o incluso una fuente particular que tiende a publicar muchas historias falsas. Sin embargo, con nuevas fuentes que brotan como hongos, incluso cortar una fuente en particular no puede hacer mucho.
En ese momento entra el MIT. Para encontrar algún patrón en la ola de noticias falsas en línea, los investigadores del Laboratorio de Inteligencia Artificial y Computación del MIT (CSAIL) y el Instituto de Investigación de Computación de Qatar (QCRI) emplearon sistemas de aprendizaje automático, que pueden hacer predicciones sorprendentemente precisas basadas en pocos datos.
En términos más simples, un sistema de aprendizaje automático funciona al intentar hacer una predicción y luego ajustar su próxima predicción según la precisión de la anterior. El resultado es que después de haber ejecutado este proceso varios miles (o millones) de veces, el sistema desarrolla un modelo muy preciso, aunque a menudo opaco, para obtener la respuesta correcta.
Para asegurar la precisión de su sistema, los investigadores tuvieron que confiar en algún tipo de métrica confiable para llamar a las noticias falsas. Para ello, recurrieron a Media Bias/Fact Check (MBFC). Un recurso que utiliza verificadores de datos humanos para rastrear sesgos de más de 2.500 sitios web de medios de comunicación. Van desde los principales actores como Fox y MSNBC hasta las granjas de contenido de bajo tráfico (ya sabes, del tipo con URL como www.patriot-news.eagle). Ellos introducían una selección de los artículos de los sitios web en su sistema, y luego marcaban si hacían la misma llamada que MBFC. Cada respuesta incorrecta acercaba el sistema a la precisión, y cada respuesta correcta mostraba que el sistema estaba en camino.
Acortando la red
El jefe del equipo Ramy Baly y el resto de sus compañeros describen cómo funciona su sistema actualmente.
Si un sitio web publicó noticias falsas anteriormente, es muy probable que lo haga de nuevo. Al raspar automáticamente los datos sobre estos sitios, la esperanza es que nuestro sistema pueda ayudar a determinar cuáles son los que probablemente lo harán.
En este punto, solo se necesitan unos 150 artículos de una fuente en particular para emitir un juicio. Eso es suficiente para que el sistema asigne un grado de confiabilidad alto, bajo o medio con aproximadamente el 65 por ciento de precisión, y también para detectar si es inclinado hacia la izquierda, hacia la derecha o moderado con el 70 por ciento de precisión.
Resulta que los factores que más revelaron la exactitud de una fuente fueron sus características lingüísticas, como el sentimiento, la complejidad y la estructura. Los sitios de noticias falsas se basaban en un lenguaje hiperbólico, subjetivo y emocional, pero las palabras no eran las únicas características que los diferenciaban. El sistema también encontró que los sitios de noticias falsas tendían a tener páginas Wikipedia más cortas. Con más referencias a frases como “teoría de la conspiración” o “extremo”. Incluso las URLs pueden ser un regalo: los caracteres especiales y los subdirectorios complicados se encuentran más comúnmente en fuentes poco fiables. No más sitios.eagle.
Por ahora el público no puede aprovechar el sistema en este momento. Los investigadores esperan lanzar una aplicación pronto. Ayudaría a las personas a salir de sus burbujas al darles artículos de todo el espectro político para cualquier noticia.
¿Qué opinas del hecho que el MIT utilizará aprendizaje automático para detectar noticias falsas? ¿Crees que al fin se combatirá eficientemente las fake news? Cuéntanos en los comentarios.