La inteligencia artificial generativa: Un arma sutil en la batalla contra la desinformación

En un estudio revelador titulado «Combating Misinformation in the Age of LLMs: Oportunidades y Desafíos», se ha confirmado que la Inteligencia Artificial Generativa, específicamente utilizando modelos de lenguaje como ChatGPT, se ha convertido en una herramienta significativa en la manipulación de la opinión pública en temas políticos y sociales. 

El informe demuestra que los Language Models (LLMs) tienen la capacidad de mejorar la credibilidad de la desinformación diseñada para influir en opiniones sobre cuestiones controvertidas. Los LLMs pueden generar involuntariamente usuarios malinformados debido a «alucinaciones» o a solicitudes conscientes de generar información falsa sobre temas específicos. 

Este fenómeno se convierte en una herramienta poderosa para la manipulación política y social, como se evidenció en el escándalo de Cambridge Analytica. La capacidad de crear desinformación que parezca auténtica dificulta la detección por parte de los usuarios, como ilustra el ejemplo en el que ChatGPT crea una pieza de desinformación altamente plausible. 

La investigación también aborda la dificultad de los usuarios para distinguir entre la desinformación generada por LLMs y la producida por seres humanos. Esto plantea preocupaciones sobre la facilidad con la que la desinformación automatizada podría influir en elecciones y campañas políticas, alterando las intenciones de voto de manera significativa. 

Además, el estudio destaca que los LLMs superan a los humanos tanto en la generación como en la detección de desinformación. Esta dualidad plantea interrogantes sobre las futuras implicaciones éticas y sociales de la Inteligencia Artificial Generativa. 

En el ámbito del cibercrimen, los LLMs, como WormGPT y FraudGPT, han emergido como herramientas clave para construir malware y llevar a cabo ataques de phishing altamente personalizados. Ante este panorama, la necesidad de desarrollar habilidades de verificación de hechos (Fact-Checker) se vuelve esencial. La introducción de herramientas de Inteligencia Artificial, como AutoVerifAI, se presenta como una medida crucial para defenderse contra las amenazas emergentes y garantizar un uso ético de la tecnología en un mundo cada vez más dominado por la IA.

Vía: Un informático en el lado del mal