Los bulos de la dana en las redes sociales: del miedo en X al asco en Tiktok
Un estudio de la Universitat Politècnica de València analiza la desinformación y las diferentes emociones que provoca en función de la plataforma elegida
Las redes sociales apelan a las emociones, especialmente en situaciones de crisis y de grandes dosis de desinformación, como se pudo comprobar en la dana del 29 de octubre que provocó 227 muertos en la provincia de Valencia. Unas reacciones que difieren dependiendo de qué red social se trate, según constata un estudio elaborado por investigadores de la Universitat Politècnica de València (UPV). El paradigma emocional no es el mismo ya que cada plataforma activa procesos cognitivos y sensoriales distintos. Una vez analizados cientos de mensajes sobre la dana en X y en TikTok, los investigadores han concluido que la desinformación en X se asocia principalmente con una mayor tristeza y miedo, mientras que en TikTok se correlaciona con una mayor ira y asco, según apunta una nota de prensa.
“En X, al tratarse mayoritariamente de contenido textual, los usuarios deben interpretar la información, lo que favorece una respuesta emocional más introspectiva, donde se elaboran narrativas que resaltan tragedias y hechos negativos de forma más pausada, desencadenando sentimientos de tristeza y miedo. En cambio, TikTok, al integrar elementos visuales y auditivos, ofrece una experiencia multisensorial que produce respuestas inmediatas y más intensas”, explican los investigadores de la UPV Paolo Rosso e Iván Arcos, quienes han llegado a la conclusión de que las emociones reactivas y viscerales que genera TikTok se centran en la ira y el disgusto.
Son algunas de las conclusiones a las que han llegado en el estudio Patrones emocionales divergentes en la desinformación en las redes sociales. Un análisis de tweets y tiktoks sobre la dana en Valencia dirigido por Iván Arcos, Paolo Rosso y Ramón Salaverría, de la Escuela de Comunicación de la Universidad de Navarra.
La música dramática, las variaciones tonales y los efectos visuales de la red social china actúan como catalizadores que disparan estas emociones menos meditadas. Además, el público de TikTok “acostumbrado a contenidos dinámicos y de rápida sucesión, tienden a procesar la información de forma más inmediata, lo que contribuye a la polarización emocional frente a la desinformación”, concluyen Rosso y Arcos, que desarrollan su trabajo en el centro de investigación PRHLT.
El estudio, desarrollado en el marco del Iberian Digital Media Observatory y publicado en la Conferencia de Inteligencia Artificial ICAART-2025, se ha llevado a cabo tras analizar la difusión de desinformación en estas dos redes sociales durante la dana de Valencia del pasado 29 de octubre. Para ello, se analizaron los patrones emocionales y lingüísticos de 650 publicaciones de X y TikTok.
El informe refuerza la conclusión de que apelar a las emociones es una estrategia deliberada y recurrente en los mensajes engañosos. El análisis lingüístico de los mensajes muestra que los contenidos fiables utilizan un lenguaje más articulado mientras que los mensajes fake emplean negaciones, anécdotas personales o referencias a familiares para legitimar sus afirmaciones mediante testimonios directos y resultar creíbles.
En el proceso de análisis de los mensajes publicados en redes sociales se utilizaron palabras clave relacionadas con la dana que generaron miles y miles de reacciones a partir de bulos como la ocultación de centenares de cadáveres en el aparcamiento del centro comercial de Bonaire (no se halló ninguna víctima mortal) o numerosas informaciones falsas sobre las ayudas rechazadas o la ruptura de presas.
Algunas de las keywords más utilizadas fueron ‘conspiración’, ‘fallecidos ocultación’, ‘engaño’, ‘manipulación’, ‘mentiras’, ‘Bonaire cementerio’, ‘ayuda rechazada’ o ‘provocada presas’. En los audios de las publicaciones en TikTok se diferencian patrones distintos: los audios confiables muestran tonos más brillantes y narraciones robóticas o monótonas, lo que genera claridad y credibilidad y los mensajes que difundían desinformación hacían uso de la variación tonal, la profundidad emocional y los elementos musicales para alterar la percepción.
Ante el aumento de la desinformación en redes sociales, los investigadores apuntan al uso de inteligencia artificial para asistir a las plataformas y verificar los contenidos ya que “podrían analizar automáticamente miles de publicaciones, detectar patrones característicos de desinformación y notificarlo a los moderadores. También podrían alertar a los usuarios sobre la posible veracidad dudosa de ciertos posts, lo que contribuiría a mitigar la difusión de información engañosa”, concluye la nota de prensa.