Del PizzaGate a la DANA: el científico que desde Valencia desnuda los bulos con IA

El equipo de la UPV que lidera el investigador Paolo Rosso utiliza la nueva tecnología para desentrañar falsedades en redes sociales: analiza texto, imágenes y audio para combatir la desinformación

Lunes, 17 de noviembre 2025

Paolo Rosso es catedrático de la Universitat Politècnica de València y uno de los referentes europeos en el estudio de la desinformación. Lleva dos décadas ... investigando en procesamiento del lenguaje natural y hoy es coordinador en el centro PRHLT (Pattern Recognition and Human Language Technology) de la UPV un equipo que utiliza modelos de inteligencia artificial —incluidos los grandes modelos de lenguaje— para detectar mensajes de odio, depresión… y, sobre todo, bulos que se vuelven virales en redes como X, Telegram o TikTok. En una entrevista concedida a LAS PROVINCIAS, relata cómo se fabrican estas mentiras, por qué se propagan tan bien y qué podemos hacer —autoridades, medios y ciudadanos— para frenar su impacto.

Publicidad

- ¿Cómo llegó a especializarse en desinformación y en qué consiste su investigación y trabajo en la UPV?

- Desde hace unos 20 años he estado trabajando en temas relacionados a la inteligencia artificial, y concretamente al procesamiento del lenguaje natural, aplicando técnicas de aprendizaje automático (machine learning), y en los últimos años de aprendizaje profundo (deep learning), a problemas de clasificación automática de textos de medios sociales de comunicación (por ejemplo, en los últimos años: identificación de sexismo, mensajes de odio contra mujeres, inmigrantes, colectivo LGBT+, detección de depresión, y detección de desinformación ). Mi investigación en el centro de investigación PRHLT (Pattern Recognition and Human Language Technology) de la Universitat Politècnica de València trata de coordinar la labor de los investigadores y estudiantes de doctorado que trabajan en estos temas.

- ¿Cuál fue el momento o el caso que le hizo decir 'Voy a dedicarme a estudiar los bulos y su impacto'?

- Unos de los momentos que me hicieron decidir que era necesario abordar el tema de la detección de los bulos fueron las elecciones presidenciales de EEUU de 2016 y posteriormente el referéndum del BREXIT de 2019. En ambas ocasiones unos bulos que circularon en las redes tuvieron un impacto clave en los indecisos. En el primer caso el bulo de PizzaGate de que el director de campaña de Hillary Clinton había organizado actividades de trata sexual de menores en una pizzería de Washington, y en el segundo que en el caso de salirse de la UE, UK hubiera ahorrado 350 millones de libras cada semana y podido utilizar para la seguridad social... Uno de mis estudiantes de doctorado (Bilal Ghanem) hizo su tesis de doctorado (2020) sobre la detección automática de información falsa (la primera tesis de doctorado de IA en España sobre este tema). A nivel europeo, así como español, se considera la desinformación como un problema, también por parte de los mismos ciudadanos españoles (el 86%), y una amenaza a nuestra sociedad debido a la interferencia (a veces desde el extranjero) para una mayor polarización de la misma.

- ¿En qué está trabajando actualmente?

- Después de abordar el problema de identificar teorías de la conspiración en mensajes de Telegram en español y en inglés durante la COVID-19, ahora nos hemos centrado en la detección de desinformación desde una perspectiva multimodal, debido a que cada vez más la información falsa circula por ejemplo no solo en redes sociales como X o Telegram sino también en los vídeos de TikTok.

Publicidad

- En palabras simples, ¿cómo ayuda la inteligencia artificial a detectar bulos?

- Los modelos de inteligencia artificial son capaces de encontrar patrones comunes en bulos. Por ejemplo, en la tarea de evaluación que organizamos en el 2024 en el laboratorio internacional del PAN sobre teorías de conspiración en Telegram, los mejores resultados se obtuvieron con dos modelos de lenguaje de gran tamaño (large language models): para el inglés con GPT 3.5 turbo de OpenAI y para el español con Llama de Meta.

- ¿Qué señales miran ustedes: las palabras, las imágenes, el tono de los audios…?

- Para poder detectar la desinformación desde una perspectiva holística, es importante tener en cuenta no solo palabras recurrentes en los bulos, sino también patrones que pueden ser recurrentes en imágenes o en audios. Esto es lo que hacen de manera automática los modelos de lenguaje de gran tamaño. Por ejemplo, en nuestro estudio sobre la dana vimos cómo las imágenes, el tono de la voz y la música tuvieron un impacto importante en la propagación de los bulos en los vídeos de TikTok.

Publicidad

«En nuestro estudio sobre la dana vimos cómo las imágenes, el tono de la voz y la música tuvieron un impacto importante en la propagación de bulos en los vídeos de TikTok»

- En su estudio sobre la dana, ¿por qué la desinformación en X se asoció a tristeza/miedo y en TikTok a ira/asco? ¿Cómo condiciona eso la propagación y la polarización?

- El estudio sobre la dana demuestra empíricamente que además de las palabras, las imágenes, el tono de los audios (más trágico) y la música de fondo (a menudo dramática) consigue provocarnos emociones negativas más extremas como la ira y el asco, consiguiendo una propagación todavía mayor de los bulos y una mayor polarización en la sociedad.

- ¿Qué patrones lingüísticos y acústicos identificaron en los bulos más virales y cómo se convierten en reglas o 'features' de detección? ¿Qué trucos usan los bulos para parecer creíbles y emocionar más?

Publicidad

- Los modelos de lenguaje de gran tamaño consiguen reconocer de manera automática los patrones lingüísticos, visuales y acústicos recurrentes en los bulos. Analizando manualmente estos mensajes, hemos notado por ejemplo que intentan convencer de su veracidad a quién los recibe apelando a amigos y familiares como testigos directos de los hechos que se comentan.

- ¿Qué deberíamos hacer (autoridades, medios y ciudadanos) en la próxima emergencia para frenar la desinformación?

- Para combatir la desinformación es importante que las autoridades inviertan recursos para una mayor alfabetización mediática (media literacy) para educar a la ciudadanía para que tenga pensamiento crítico y no se crea toda la información que recibe sin antes contrastar su veracidad. Esta labor debería empezarse en las escuelas, como por ejemplo se ha estado haciendo en países como Finlandia. Con respecto a los medios tradicionales de comunicación, es un hecho que los jóvenes cada vez los leen menos y suelen más bien 'informarse' en redes sociales donde los mensajes son más sencillos y directos. Una manera podría ser divulgar información veraz en redes sociales de la misma manera como algunos partidos difunden desinformación entre los jóvenes: mensajes cortos y claros. Los ciudadanos tenemos que aprender a no creernos todo lo que nos llega y comprobar la veracidad de la información que recibimos antes de pasarla a nuestros contactos para evitar propagar todavía más la desinformación. Se trata sin duda a veces de luchar contra nuestros sesgos, por ejemplo el sesgo de confirmación: a veces el riesgo es compartir la información que se casa con nuestros prejuicios sin ni pensar que puede ser falsa...

Publicidad

- Con el auge de deepfakes, clonación de voz y synthetic media, ¿qué capacidades deberíamos exigir: detección, trazabilidad, marcas de agua, provenance…?

- La desinformación en redes sociales es un problema de tal envergadura que toda medida es poca y cuántas más mejor: detección (que es en lo que trabajamos), trazabilidad y provenance (es importante ver si la fuente es confiable) y también marcas de agua, aunque no siempre es suficiente.

Este contenido es exclusivo para suscriptores

Suscríbete a Las Provincias al mejor precio

Publicidad