Por: Nicolás Castro, Coordinador de Maestría en Comunicación Política y Gubernamental UIDE
Con la irrupción de las nuevas tecnologías, las redes sociales y los algoritmos cada vez más personalizados, vivimos en una época en la que la verdad ya no se busca: se selecciona. En este nuevo ecosistema digital, los grandes consensos, los criterios de verdad, los hechos fácticos y las percepciones que antes parecían incuestionables, se han vuelto relativos; es decir, representaciones sin hegemonía. Los discursos oficiales ya no ocupan un lugar privilegiado convirtiéndose así en un discurso más.
En medio de esta crisis de sentido, la política, que ya venía luchando por mantener su legitimidad, ahora debe enfrentarse a un nuevo enemigo: discursos que suenan reales, pero nunca fueron dichos; videos que parecen pruebas irrefutables, pero fueron generados en segundos; opiniones que se viralizan, pero jamás fueron emitidas por una persona. En este escenario, la inteligencia artificial ha surgido como una herramienta poderosa para fabricar relatos políticos que no buscan demostrar ni convencer, sino confirmar.
Nicolás Castro, coordinador de la Escuela de Comunicación de la UIDE, menciona que no estamos hablando del futuro ni de una amenaza lejana. En América Latina —y en Ecuador particularmente— la inteligencia artificial ya está siendo utilizada para alterar el flujo de la información política. Lo más preocupante es que muchas veces lo hace sin que lo notemos. Porque la desinformación no pretende abrir un debate, sino modular emociones y ratificar certezas cómodas.
Pero, ¿cómo llegamos a este punto? Antes de abordar los desafíos que este entorno plantea para la comunicación política, es necesario comprender el contexto social —y digital— en el que se producen estas nuevas narrativas, y por qué encuentran tanta acogida. Lo que enfrentamos no es únicamente un avance tecnológico; es una transformación profunda en las formas en que se percibe, se interpreta y se valida lo político desde la comunicación.
Cuando la máquina sabe qué queremos oír
Uno de los efectos más preocupantes de la inteligencia artificial en la comunicación política es su capacidad para crear discursos hechos a la medida de cada grupo ideológico. Ya no se trata de traducir ideas complejas al lenguaje ciudadano, sino de producir mensajes que simulan autenticidad y conectan directo con las emociones. Basta con alimentar un modelo con los temas que movilizan a una comunidad —como la familia, la patria, el rechazo a las élites o el deseo/miedo de cambio— para obtener un discurso que parece creíble y propio.
Lo más inquietante es que la IA puede sostener ideas opuestas con la misma seguridad. Puede redactar mensajes feministas, conservadores, ambientalistas o anti-establishment, todos con coherencia. No importa tanto el contenido, sino que el discurso logre parecer parte del grupo. La polarización ya no necesita grandes líderes ni partidos fuertes; alcanza con una máquina que sepa qué quiere escuchar cada audiencia.
Para Castro, este escenario se agrava por el entorno digital actual, donde leer con atención y pensar con profundidad es cada vez menos común. En los últimos años, las personas han estado expuestas a contenidos breves, emocionales y diseñados para captar atención inmediata (con los cambios culturales que esto conlleva). Por eso, el electorado es cada vez más tribal, menos racional, menos interesado en los hechos o en la historia. Conecta más con lo que le hace sentir que con lo que le hace pensar —un insight que no es nuevo, pero que es cada vez más latente—. Y cuando el discurso político se apoya en esas emociones, crece el espacio para teorías conspirativas, verdades a medias y relatos que confirman lo que cada grupo ya cree.
Si esto suena conocido, es porque, como sociedad, ya estamos recorriendo este camino. La verdadera amenaza no es que la IA hable mejor, sino que, como ciudadanía, dejemos de escuchar con sentido crítico.
Deepfakes y campañas sucias en América Latina
En América Latina, donde muchas democracias enfrentan instituciones frágiles y altos niveles de desconfianza electoral, los deepfakes se han convertido en una amenaza real para la comunicación política. Ya no se trata de simples montajes virales, sino de estrategias diseñadas para sabotear campañas, manipular la opinión pública y desestabilizar procesos electorales. Casos en Argentina, Colombia o Ecuador muestran cómo estos contenidos falsos, generados con inteligencia artificial, circulan en momentos clave con efectos potencialmente decisivos; mientras tanto, las respuestas institucionales suelen llegar tarde o ser insuficientes.
Esta tecnología permite fabricar mentiras creíbles y convertirlas en herramientas altamente virales. A diferencia de la desinformación tradicional, los mensajes generados por IA no buscan convencer con argumentos: refuerzan emociones ya existentes. Aprovechan el sesgo de confirmación, un mecanismo psicológico que nos lleva a aceptar sólo aquello que reafirma nuestras creencias. Así, cada usuario recibe contenidos diseñados a la medida de su visión del mundo, lo que refuerza su identidad política y profundiza la polarización.
El resultado es un ecosistema comunicativo fragmentado, donde el debate democrático se reemplaza por burbujas cerradas de reafirmación mutua. La inteligencia artificial no sólo replica estos sesgos: los perfecciona. En este contexto, hacer comunicación política se vuelve un desafío ético y estratégico. ¿Cómo construir mensajes que no solo alimenten trincheras? ¿Cómo hablarle a una ciudadanía que ya no comparte un espacio común de conversación?
Formación frente al caos: la respuesta desde la academia
Hoy, más que nunca, se necesitan comunicadores políticos capaces de ir más allá del relato inmediato. Profesionales y expertos que comprendan lo que la inteligencia artificial está gestando detrás del ruido. En América Latina, solo cerca del 57 % de adultos identifican correctamente información falsa en línea La formación crítica es urgente. Vivimos en un entorno donde la tecnología transforma la forma en que se comunica, se percibe y se construye la realidad política. La academia tiene la responsabilidad de preparar voces que entiendan los lenguajes del poder y del algoritmo.