verificación de hechos por IA

La verificación de hechos por IA, tradicionalmente considerada una herramienta esencial contra la desinformación sin la intermediación de la inteligencia artificial, enfrenta nuevos desafíos en la era digital. Un estudio reciente de la Universidad de Indiana, ‘Fact-checking information generated by a large language model can decrease news discernment’, exploró cómo la información de verificación de hechos generada por modelos de lenguaje grande (LLM), como ChatGPT, influye en la percepción y difusión de noticias políticas. A pesar de la capacidad de estos modelos para identificar noticias falsas con cierta precisión, los resultados sugieren que la intervención de LLM no mejora significativamente la capacidad de los usuarios para discernir la precisión de las noticias ni fomenta la compartición de noticias precisas.

El estudio, desarrollado por Matthew R. DeVerna, Harry Yaojun Yan, Kai-Cheng Yang y Filippo Menczerque, incluyó a 1.548 participantes estadounidenses y presentó 40 titulares políticos reales, divididos equitativamente entre verdaderos y falsos, y favorablemente hacia demócratas o republicanos. Los participantes fueron divididos en grupos para evaluar su creencia en la veracidad de los titulares y su disposición a compartirlos en redes sociales. A pesar de que los LLM lograron identificar correctamente muchas noticias falsas, el estudio reveló que las correcciones de IA pueden disminuir la creencia en titulares verdaderos erróneamente etiquetados como falsos y aumentar la creencia en titulares falsos cuando el LLM no estaba seguro de su veracidad.

La verificación de hechos por IA a la hora de analizar titulares

Un hallazgo positivo fue que la información de verificación de hechos de los LLM incrementa la intención de compartir titulares verdaderos correctamente etiquetados. Sin embargo, cuando se dio a los participantes la opción de ver las verificaciones de hechos de LLM y eligieron hacerlo, mostraron una mayor probabilidad de compartir tanto noticias verdaderas como falsas, pero solo eran más propensos a creer en las noticias falsas. Este comportamiento destaca una fuente de daño potencial en la aplicación de IA, subrayando la necesidad de políticas para prevenir o mitigar tales consecuencias no deseadas.

Este estudio pone de relieve la complejidad de la interacción humano-IA en el contexto de la desinformación digital y la importancia de abordar meticulosamente los impactos no intencionados de las intervenciones de verificación de hechos basadas en IA. A medida que la tecnología de IA se integra cada vez más en nuestro entorno informativo, es crucial comprender tanto los riesgos como las oportunidades que crea, garantizando que contribuya positivamente a la integridad de la información en nuestro mundo cada vez más digital.