¿La IA tiene una capacidad de persuasión mayor que los seres humanos? Estudios aseguran que sí

El experimento demostró que, cuando se proporcionaba información demográfica personalizada como género, edad, etnia, nivel educativo o afiliación política, la IA resultaba más convincente que los humanos en un 64,4% de los casos.
Este lunes, la revista Nature Human Behaviour, publicó un estudio que comprobó el potencial de las aplicaciones de Inteligencia Artificial (IA), como ChatGPT, para influir en la opinión pública de manera más eficaz que los propios humanos, esto siempre y cuando, tengan información personal previa.
Metodología de investigación
La investigación, realizada con 900 participantes estadounidenses de perfiles sociodemográficos diversos, puso a prueba la capacidad persuasiva de ChatGPT frente a la de personas reales en debates sobre temas actuales. La mitad de los participantes debatió con otro ser humano y la otra mitad con ChatGPT, en un entorno en línea controlado por los investigadores.
El experimento demostró que, cuando se proporcionaba información demográfica personalizada como género, edad, etnia, nivel educativo o afiliación política, la IA resultaba más convincente que los humanos en un 64,4% de los casos. En cambio, sin acceso a esos datos, la capacidad de persuasión del modelo era comparable a la humana.
Un punto importante es que a diferencia de los humanos, que necesitan tiempo y esfuerzo para adaptar sus argumentos, los modelos de lenguaje como ChatGPT pueden personalizar mensajes de forma instantánea y a gran escala, lo que les confiere una ventaja significativa en contextos como campañas políticas, marketing o redes sociales.
¿Qué podría provocar este avance?
Esta capacidad, aunque abre nuevas posibilidades en la comunicación digital, también plantea serios riesgos éticos. Los investigadores advierten sobre el potencial uso de estas herramientas para la manipulación encubierta y llaman a plataformas y reguladores a establecer mecanismos para identificar, monitorear y, si es necesario, restringir su uso en contextos sensibles.
Un descubrimiento que requiere regulación
Carlos Carrasco, profesor de IA en la Escuela de Negocios de Toulouse, señaló que “el estudio se realizó con participantes estadounidenses, pero los mecanismos de personalización y persuasión que se ponen a prueba son extrapolables a contextos como el español, donde también existe una fuerte presencia digital, una creciente exposición a contenido generado por IA, y una polarización social y política en aumento”.
Además, fue enfático al mencionar que “esta investigación confirma con datos sólidos una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala”.
Por otra parte, el catedrático del Centro Singular de Investigación en Tecnologías Inteligentes (CiTIUS) de la Universidad de Santiago de Compostela, David Losada, señaló que “este recorrido de las herramientas basadas en IA como “agentes de persuasión” deberá ser monitoreado a corto, medio y largo plazo desde una perspectiva ética y de mitigación de riesgos”.
“Las implicaciones prácticas de esta capacidad de persuasión de la IA pueden ser importantes a efectos de explotar las IA para persuadir a la población con propósitos lícitos (conducción segura o reciclado de residuos) o ilícitos (manipulación de la ciudadanía con fines políticos)”, concluyó Losada.
Síguenos en nuestro canal de Whatsapp:
Whatspp