Los chatbot con inteligencia artificial, incluso los pequeños de código abierto, pueden influir en las actitudes e intenciones de un votante acerca de un candidato o una propuesta política. Unos sistemas que, cuando se optimizan para la persuasión, pueden acabar desplegando información engañosa o falsa.
Ese es el resultado de dos estudios, con experimentos en cuatro países, que publican Nature y Science, encabezados por las universidades de Cornell (EE.UU.) y Oxford (Reino Unido), respectivamente.
Las investigaciones indican que los chatbots basados en grandes modelos de lenguaje (LLM) son bastante eficaces en la persuasión política, ya que en muchos casos mueven las preferencias de los votantes de la oposición en diez puntos porcentuales.
Esa capacidad reside en presentar numerosas afirmaciones que respaldan sus argumentos a favor de las posiciones políticas de los candidatos, aunque no siempre son "necesariamente precisas", según David Rand, responsable del estudio de la Universidad de Cornell.
Los hallazgos de la Universidad de Oxford sugieren que el poder persuasivo de la IA probablemente se derive de las técnicas posteriores al entrenamiento y de incitación, que movilizan la capacidad de un LLM para generar rápidamente información durante la conversación.
Sin embargo, se observó una "compensación preocupante: cuando los sistemas de IA se optimizan para la persuasión, pueden desplegar cada vez más información engañosa o falsa", indica el estudio encabezado por Kobi Hackenburg, de Oxford.
Chatbots que cambian actitudes
Las opiniones de las personas sobre su aspirante preferido se reforzaron ligeramente al hablar con un robot con criterios afines, efecto que fue más pronunciado en los que persuadían a quienes inicialmente se oponían al candidato que defendía la IA.
En una escala de 100 puntos, el modelo de IA pro-Harris movió a los posibles votantes de Trump 3,9 puntos hacia ella, un efecto aproximadamente cuatro veces mayor que el de los anuncios tradicionales probados durante las elecciones de 2016 y 2020.
El modelo pro-Trump movió a los posibles votantes de Harris 1,51 puntos hacia el otro candidato, indicó la Universidad de Cornell en un comunicado.
En las elecciones federales canadienses y las presidenciales polacas el efecto fue mayor: los chatbots cambiaron las actitudes y las intenciones de voto en unos 10 puntos porcentuales.
Cuando los investigadores impidieron que el modelo utilizara datos se volvió mucho menos persuasivo, lo que demuestra el papel fundamental que desempeñan las afirmaciones basadas en datos en la persuasión de la IA.
El equipo también verificó los argumentos del chatbot utilizando un modelo de IA, que fue validado por verificadores de datos profesionales.
En promedio, las afirmaciones eran en su mayoría precisas, pero los programados para apoyar a aspirantes de derecha "hicieron afirmaciones más inexactas que los que defendían a los candidatos de izquierda en los tres países", destacó la Universidad de Cornell.
El estudio que publica Science analizó los mecanismos subyacentes de la persuasión política de la IA y reveló que son el entrenamiento posterior y las indicaciones, antes que la escala del modelo y la personalización (dar al LLM información sobre el usuario)
El equipo encabezado por la Universidad de Oxford midió los cambios de opinión de casi 77.000 participantes que trataron de más de 700 cuestiones políticas con 19 modelos, desde pequeños sistemas de código abierto a otros de última generación.
La forma más eficaz de aumentar la persuasión fue "instruir a los modelos para que incluyeran tantos datos como fuera posible en sus argumentos y proporcionarles formación adicional centrada en aumentar la persuasión", afirmó Rand.
Las técnicas posteriores al entrenamiento y las estrategias de incitación simples aumentaron drásticamente la persuasión, hasta en un 51 % y un 27 %, respectivamente.
La contrapartida fue que los modelos y las estrategias de incitación que eran eficaces para aumentar la persuasión "a menudo lo hacían a expensas de la veracidad, lo que demuestra que la optimización de un modelo de IA para influir puede degradar inadvertidamente la precisión", indicó la revista.
Ese efecto se puede deber, según sospecha Rand, a que, a medida que se presiona al chatbot para que proporcione cada vez más afirmaciones basadas en hechos, acaba agotando la información precisa y comienza a inventarla.
Aunque los chatbots solo pueden ser herramientas de persuasión eficaces si las personas interactúan con ellos, no hay duda de que serán una parte cada vez más importante de las campañas políticas.
El reto es "encontrar formas de limitar el daño y ayudar a las personas a reconocer y resistirse a la persuasión mediante IA", concluyó el investigador.
Con información de EFE / Foto: Ilustrativa de Pexels