Un detector online para desenmascarar propaganda en redes sociales 

Imagen de Marcelo Mendoza

Marcelo Mendoza

Departamento de Ciencia de la computación

Compartir:

La propaganda ya no necesita panfletos ni actos en la calle. La masificación de internet y de las redes sociales multiplicó su alcance y la volvió más difícil de detectar, sobre todo cuando adopta formas encubiertas. Por propaganda encubierta se entiende una secuencia de mensajes diseñados para manipular la opinión de las personas que ocultan su intención y su autoría, simulan ser noticias o información objetiva y se difunden de manera coordinada para maximizar su impacto sin levantar sospechas. Ese camuflaje facilita que los contenidos se infiltren en el flujo cotidiano de publicaciones y que, impulsados por emociones como el miedo o la rabia, reduzcan nuestras defensas cognitivas y se vuelvan virales. La irrupción de la inteligencia artificial intensificó el fenómeno, porque hoy existen modelos capaces de generar textos verosímiles a gran escala, lo que hace cada vez más difícil distinguir lo genuino de lo fabricado.

Frente a este escenario, un equipo liderado por Marcelo Mendoza, académico de la Escuela de Ingeniería UC, impulsa un proyecto que busca devolverle a la ciudadanía un filtro crítico y transparente. Para ello, están desarrollando dos herramientas complementarias: una para identificar propaganda encubierta en textos publicados en redes sociales y otra para medir el efecto de esos mensajes en el comportamiento de quienes los reciben. El objetivo no es censurar ni decidir por las personas, sino hacer visible aquello que suele pasar desapercibido y que termina influyendo de manera indirecta o sin que nos demos cuenta en nuestras opiniones y/o acciones.

Herramienta para identificar qué es propaganda y cómo opera

Esta herramienta detecta fragmentos de propaganda en textos y etiqueta la técnica empleada, por ejemplo, apelación al miedo o desacreditación del oponente, dentro de un conjunto de otras de veinte técnicas. Para ello partieron utilizando una base de noticias y comentarios de Instagram y Facebook que utilizaban estas técnicas. Como la mayoría del material estaba en inglés y algunas estrategias aparecían con mucha más frecuencia que otras, fue necesario ampliar y equilibrar el conjunto de datos.

Para ello, utilizaron inteligencia artificial generativa que se entiende como modelos capaces de producir contenido nuevo a partir de ejemplos, como redactar un párrafo que conserve el sentido del original, pero con otras palabras o trasladarlo a otro idioma. En este proyecto se usó esta técnica en chat GPT para traducir los textos al español y para crear paráfrasis que aumentaran la diversidad de los datos. Cada salida generada fue revisada por personas antes de incorporarla al entrenamiento, para asegurar calidad y evitar sesgos adicionales.

El mayor desafío en esta secuencia fue afinar la instrucción que se le daba a la IA, de manera de que hiciera lo que los investigadores exactamente necesitaban. Usaron una estrategia llamada “sintonización del prompt”, en la que se define primero el resultado esperado, y luego se trabaja la instrucción hasta que GPT sea capaz de entregarlo de manera exacta. 

Con la base de datos ampliada, los investigadores ya están entrenando y afinando la herramienta. El objetivo es abrir una interfaz pública y gratuita en la cual el usuario pueda ingresar un texto cualquiera, y el algoritmo destaque aquellos fragmentos que contengan propaganda, e identifique qué estrategia se utiliza: desacreditación del oponente, apelación al miedo o cualquiera de las veinte incorporadas al modelo.

Ejemplos de textos en los que se reconoce la presencia de propaganda, y la etiqueta que identifica la técnica específica utilizada.

Herramienta para identificar cómo la propaganda influye en el comportamiento en redes

El objetivo de esta segunda herramienta es reconocer los efectos de la propaganda en el comportamiento en redes sociales de los usuarios que la perciben. En específico, los investigadores trabajaron sobre la pregunta: ¿Existe el contagio propagandístico? Esto es, si las técnicas utilizadas en los mensajes de propaganda se replican en los comentarios que publican los receptores. Por ejemplo, si un mensaje usa la técnica “Apelación al miedo”, ¿los usuarios responderán al mensaje con textos que también contengan “Apelación al miedo”?

Para explorar ese contagio, el equipo caracteriza el comportamiento de las cuentas a partir de su historial y del tono de sus publicaciones, distinguiendo cuatro perfiles principales:

  1. Haters: emplean lenguaje agresivo u ofensivo que puede denigrar a otras personas.
  2. Hiperpartisanos: manifiestan adhesión explícita a causas, partidos, movimientos o agrupaciones civiles.
  3. Neutrales: mantienen un estilo de comunicación respetuoso, independiente de la postura que expresen.
  4. Bots sociales: cuentas automatizadas operadas por algoritmos con fines específicos.

 

Estas categorías no son excluyentes: una misma cuenta puede compartir rasgos de más de un perfil. La clasificación se realiza considerando el historial de publicaciones y el tono sostenido en el tiempo.

Con esa taxonomía, el modelo evalúa patrones de coordinación. Si se observa un volumen relevante de comentarios que repiten una misma técnica propagandística y que provienen mayoritariamente de cuentas automatizadas o con militancia explícita, aumenta la probabilidad de estar frente a una campaña coordinada. El interés no está en etiquetar ideologías, sino en hacer visible el cómo: la réplica de estrategias discursivas y su posible articulación en red.

Fecha publicación

Investigadores principales:

Marcelo Mendoza

Miguel Fernández

Carlos Muñoz

Departamento de Ciencia de la Computación

Marcelo Santos

Facultad de Comunicaciones y Letras, Universidad Diego Portales

Contenidos Asociados

Áreas Relacionadas

Imagen de Marcelo Mendoza

Marcelo Mendoza

Departamento de Ciencia de la Computación

“Al poner esta herramienta a disposición pública, aportamos transparencia al ecosistema informativo: analiza textos y revela patrones de manipulación y lenguaje persuasivo, ayudando a que el debate democrático se base en argumentos y no en tácticas engañosas”.

Actualmente, el equipo aplica ambas herramientas a publicaciones previas a las elecciones presidenciales de Chile de 2025. El análisis abarca contenidos en plataformas de META y noticias con sus comentarios en la prensa nacional. Este trabajo permitirá afinar los modelos y ofrecer evidencia sobre el funcionamiento de las campañas en un período especialmente sensible para la vida democrática.

La premisa que guía el proyecto es clara. Develar las campañas es la mejor forma de enfrentarlas. Al exponer cómo operan, la audiencia reconoce la frecuencia y la cotidianeidad de estos contenidos y fortalece su juicio crítico para mirar con sospecha aquello que circula en redes sociales.

error: Contenido protegido