Ronald Denaux y José Manuel Gómez-Pérez, del Cogito LAB de Expert System en Madrid, presentarán en la International Semantic Web Conference, que tendrá lugar del 2 al 6 de noviembre en Atenas, un trabajo de investigación relacionado con la detección de noticias falsas. El encuentro, es un foro internacional de referencia que reúne a investigadores, profesionales y especialistas para tratar temas relacionados con el futuro de las tecnologías semánticas.
El trabajo realizado por los investigadores de nuestra compañía que ha visto recientemente la luz con la publicación de un paper, tiene su origen en el proyecto Co-Inform, financiado por la Comisión Europea para combatir la información falsa o errónea y promover una formación de opinión y toma de decisiones mejor informada a distintos niveles de la sociedad. Expert System trabaja desde 2018 en este proyecto con el objetivo de diseñar e implementar una plataforma que combina tecnología Cogito y Deep Learning aplicado al lenguaje, como Language Models y Transformers. El resultado es un desarrollo capacitado para determinar la fiabilidad de noticias que aparecen en medios de comunicación, blogs o redes sociales con un grado de precisión superior al 80% en los benchmarks de referencia en esta tarea, además de evaluar y propagar la credibilidad de las fuentes que emiten la información.
Un modelo basado en de Revisiones de Credibilidad (CR)
En los últimos años, la proliferación de noticias falsas o no suficientemente contratadas, se ha convertido en algo habitual. Los investigadores han respondido a esta realidad desarrollando sistemas que empiezan a ser útiles para detectar la desinformación. Sin embargo, la mayoría de metodologías se basan en técnicas de aprendizaje profundo, que resultan complicadas de interpretar por los ordenadores sin la intervención de expertos.
El artículo que se presenta en ISWC detalla el trabajo desarrollado por el LAB de Expert System para la detección de fake news, que se centra en una arquitectura basada en un concepto central de Revisiones de Credibilidad (CR), que se pueden utilizar para generar redes de bots que colaboran en paralelo para detectar información errónea. El objetivo es componer grafos de conocimiento con información web y señales de credibilidad ya contrastada o proveniente de fuentes fiables: afirmaciones verificadas por hechos, revisiones reputadas en webs de referencia o evaluaciones sobre conjuntos de datos existentes de publicaciones en redes sociales, entre otros parámetros de análisis.
El desafío principal en el que sigue trabajando nuestro equipo de investigadores es el desarrollo de sistemas automatizados que ayuden a la sociedad a evaluar autónomamente la credibilidad de la información, mediante sistemas de apoyo basados en inteligencia artificial. Todo ello, apunta hacia la necesidad de enfoques híbridos que permitan combinar métodos basados en Deep learning con enfoques sustentados en grafos de conocimiento simbólico que faciliten una mejor colaboración entre grandes plataformas, verificadores de datos, público en general y otros actores protagonistas en la elaboración de noticias como responsables políticos, periodistas, webmasters o influencers.