Síguenos

Tecnología

¿Los algoritmos de las redes favorecen la difusión de bulos?

Publicado

el

algoritmos de las redes

Diseñado por Freepik

Algoritmos que premian el impacto impulsan bulos en TikTok y YouTube. Análisis, datos, ejemplos en España y medidas efectivas para frenarlos.

En redes que compiten por la atención al segundo, el contenido que retiene y hace clics es el que gana. La prioridad es maximizar reproducciones, tiempo de visionado y señales de interacción —me gusta, comentarios, compartidos—, no distinguir entre lo cierto y lo falso. El resultado se ve a simple vista: vídeos engañosos con envoltorio emocional escalan más rápido y llegan más lejos que las piezas informativas sobrias. Ocurre en TikTok, ocurre en YouTube. Y no es un accidente: es una consecuencia del diseño.

La dinámica es clara desde dentro de las plataformas. TikTok clasifica cada clip según la reacción real del público y lo empuja en oleadas crecientes si mantiene la retención. YouTube hace lo propio con su recomendador, que evalúa el “watch time” y la satisfacción percibida para decidir qué aparece en la portada y qué salta como “Up Next”. Cuando un vídeo falso genera sorpresa, indignación o miedo, tiende a retener. Cuando provoca discusión, suma comentarios. Cuando se comparte compulsivamente, el sistema entiende que funciona. Con ese combustible, la veracidad pasa a un segundo plano. La mentira, si engancha, corre.

Qué hay detrás del feed: señales que deciden qué aparece

En el corazón del “Para ti” de TikTok y la página de inicio de YouTube late un conjunto enorme de señales de usuario. Importan variables cuantificables: cuánto tarda alguien en deslizar, si repite la reproducción, si lo comparte con contactos, si lo guarda, si comenta, si se queda hasta el final. También pesan señales negativas —“No me interesa”, abandono temprano—, pero llegan tarde cuando la pieza ya ha prendido. El circuito estándar es incremental: el vídeo se sirve a una muestra pequeña; si la retención y la interacción superan umbrales, salta a un grupo mayor; si mantiene el rendimiento, entra en racha. Ese bucle de aprendizaje constante es fabuloso para descubrir talento, tendencias y formatos. Y, a la vez, es un atajo perfecto para que bulos de alto voltaje emocional consigan visibilidad antes de que la moderación actúe. Como en el caso de los bulos de la Dana.

YouTube ha ido desplazando su métrica central desde los clics al “tiempo de visualización valioso”. El matiz es relevante: el sistema intenta evitar el clickbait que decepciona. Pero, al final, el algoritmo promociona lo que la audiencia termina de ver y declara satisfactorio en encuestas rápidas. Si una pieza conspirativa se mira entera y genera conversación, encaja. Si un explicador riguroso pierde audiencia al minuto dos, no. La lógica es implacable.

Evidencias que van más allá de la anécdota

La difusión diferencial de la falsedad frente a la verdad está documentada en redes desde hace años. En plataformas de microblogging, los rumores falsos resultaron más propensos a ser compartidos y alcanzaron audiencias grandes más deprisa que los contenidos verificados. En vídeo, los programas de auditoría ciudadana han captado patrones parecidos: recomendaciones que empujan piezas engañosas durante horas o días, pese a reportes de usuarios, especialmente en contextos de alta tensión informativa (conflictos, elecciones, catástrofes). No es que todo el sistema premie el bulo; es que, cuando se alinean novedad, emoción y señales de engagement, la maquinaria no distingue a tiempo.

En España hay ejemplos recientes y medibles. Tras fenómenos meteorológicos extremos, proliferaron clips que atribuían causas falsas, mostraban imágenes de años anteriores como si fuesen actuales o inventaban evacuaciones. Ese tipo de vídeos logró picos de visionado y tasas de participación superiores a las piezas verificadas publicadas en el mismo intervalo. El sesgo de amplificación se ve en los indicadores que el propio sistema utiliza para aprender: retención más alta, comentarios más encendidos, picos de compartidos. La tormenta perfecta para cualquier recomendador.

Psicología y producto: por qué el bulo engancha más

Hay dos motores que explican el fenómeno. Uno es psicológico. Las personas comparten y recuerdan más aquello que sorprende, indigna o asusta. La novedad y la emoción fuerte aumentan la probabilidad de reenvío. No es una perversión moderna; es un atajo cognitivo. Si un vídeo grita que “nadie te cuenta esta verdad” y añade imágenes impactantes, sube la atención instantánea. Si además resuelve un mundo complejo con un relato fácil —un malo, una trama, una consecuencia inmediata—, se queda en la cabeza.

El otro motor es el diseño de producto. El scroll infinito de TikTok elimina fricción: cada segundo hay una decisión. Un algoritmo que reduce a la mínima expresión el coste de pasar al siguiente vídeo premia el impacto instantáneo. En YouTube, la cadena de recomendados actúa como carril de aceleración: de un vídeo llamativo se salta a otro con temática aún más afilada, ajustado a la respuesta previa. Cuando el usuario intenta frenar —“No recomendar canal”, “No me interesa”—, las pruebas independientes sugieren que el efecto existe, pero no es absoluto. Si el sistema ya detectó una afinidad temática fuerte, la probabilidad de recibir variaciones del mismo contenido se mantiene. No todo se arregla con un botón.

Qué dicen hoy las plataformas: mejoras reales y grietas visibles

Las tecnológicas subrayan, con razón, que han introducido barreras y frenos. YouTube asegura que ha reducido de forma sostenida la visibilidad del “contenido limítrofe”, ese que roza la desinformación sin cruzar por completo sus políticas. También presume de elevar fuentes autorizadas en temas sensibles y de etiquetar vídeos de noticias con paneles contextuales. TikTok ha incorporado controles de personalización, la opción de reiniciar el “Para ti” y herramientas para bloquear palabras clave. Hay inversión en equipos de moderación y respuestas más rápidas a campañas coordinadas.

Pero hay zonas grises. El propio volumen de visualizaciones hace que, incluso con fracciones pequeñas, el número absoluto de impactos nocivos sea alto. Los controles de usuario siguen teniendo eficacia limitada en escenarios de alta intensidad. La moderación automática no siempre detecta sarcasmo, humor o formatos ambiguos que esconden bulos bajo capas de entretenimiento. Y las políticas fluctúan: se afinan en ciclos electorales, se relajan en otros momentos, se reescriben para integrar nuevos fenómenos (deepfakes, sintetizadores de voz) que aún no encajan del todo en los manuales.

En Europa, la Ley de Servicios Digitales ha empujado a las plataformas a cambios estructurales. Se exige evaluar riesgos sistémicos —entre ellos, la desinformación—, abrir datos a investigadores en condiciones de seguridad y dar transparencia publicitaria. Ya se han abierto procedimientos y advertencias formales a plataformas por cumplir a medias estas obligaciones. El mensaje es cristalino: la arquitectura que maximiza retención sin contrapesos puede chocar con el marco regulatorio.

Cómo se fabrica una viralidad falsa: del clip al agujero de conejo

Imaginemos la secuencia habitual. Un creador publica un vídeo corto con afirmaciones extraordinarias sobre un desastre o un proceso electoral. Llega a una primera tanda de usuarios propensos a ver ese tema. Un porcentaje lo ve de principio a fin —el clip dura 20 o 30 segundos, fácil—; otro comenta con vehemencia; otro comparte por mensajería. El sistema detecta rendimiento por encima de la media y abre la compuerta a audiencias más grandes con perfiles parecidos. En minutos, aparecen respuestas airadas y duelos de comentarios que alimentan la cifra de interacciones. El creador sube una segunda pieza para “ampliar la información” y capitaliza la tracción. Cuando llegan los desmentidos, compiten ya con una inercia estadística brutal.

En YouTube, el guion se escribe con más metraje. Un vídeo de 8 o 12 minutos centrado en una narrativa falsa pero magnética puede enganchar por curiosidad y alargar el tiempo de visionado. El recomendador sugiere segundas partes, directos, reacciones. La sesión se prolonga. Si alguien intenta parar marcando “No recomendar”, el efecto se diluye cuando luego hace clic por curiosidad en otro contenido similar. Un gesto contradice al anterior y la máquina pesa más el visionado que la intención declarada.

Datos y proporciones que ayudan a entender el tamaño del problema

Cuando se habla de “fracciones pequeñas” hay que ponerlas en contexto. En una plataforma con cientos de millones de usuarios, un 0,5% de visualizaciones procedentes de recomendaciones problemáticas —por citar una cifra que circula a menudo en debates sobre contenido limítrofe— supone un volumen colosal de reproducciones. Si, además, las piezas engañosas concentran mayor participación, su huella se amplifica: más comentarios, más tiempo de visionado agregado, más señales positivas para el sistema. La desinformación no necesita ser mayoría para modelar el debate; basta con que capture una parte significativa de los espacios de conversación y polarice con eficacia.

Otro factor cuantitativo es la estructura demográfica del consumo. Entre jóvenes y muy jóvenes, TikTok y YouTube concentran más tiempo y atención informativa que cualquier informativo televisivo o portada de periódico. Si en ese tramo de edad un 10% o un 15% utiliza TikTok para informarse con frecuencia, las dinámicas algorítmicas explican buena parte del paisaje informativo real. Y lo harán más: la búsqueda in-app en TikTok ya compite con Google para preguntas prácticas y de actualidad. Cuando la búsqueda forma parte del circuito algorítmico general, los sesgos de recomendación se trasladan a lo que aparece en la primera pantalla tras teclear una consulta.

España, laboratorio en directo: crisis, elecciones y clima

El patrón se repite en episodios concretos. Tras lluvias torrenciales y DANAs, vídeos descontextualizados de otras regiones o años circulan como actuales, recluidos en series de clips donde se mezclan avisos oficiales con suposiciones, interpretaciones maliciosas y teorías sin base. La maquinaria de recomendación detecta la demanda informativa y empuja cualquiera de esas piezas que muestre rendimiento extraordinario. Más tarde llegan los desmentidos de organismos públicos, verificadores y medios, pero la ventana de máxima atención ya se ocupó con mensajes más simples y virales.

En periodos electorales, el menú cambia de forma, no de fondo. Afirmaciones falsas sobre voto por correo, supuestos pucherazos o manipulación de urnas encuentran terreno fértil. El formato de vídeo corto da ventaja a escenas que parecen “prueba” grabada con móvil. En YouTube, los directos y los re-subidos de fragmentos televisivos sin contexto se convierten en surtidores de narrativas alternas. Otra vez: la combinación de emoción + novedad + engagement manda.

Qué funciona para frenar el premio al bulo (sin prometer milagros)

Los ajustes de diseño son la palanca con mayor recorrido. Elevación clara de fuentes acreditadas en situaciones de alta demanda informativa. Limitación temporal del alcance de contenidos detectados como virales sobre hechos sensibles hasta que haya verificación básica. Paneles contextuales que aparezcan antes del play en búsquedas de temas de riesgo. Sintonía fina en los pesos del algoritmo: menos importancia al compartido inmediato, más al tiempo de visionado acumulado en fuentes de probada fiabilidad, penalizaciones progresivas a cuentas reincidentes en difusión de material desinformador, aunque no cruce el umbral de borrado.

Hay margen también en controles de usuario que realmente modifiquen el feed. El “No recomendar canal” debería tener efecto duradero y visible, no simbólico. El reinicio del “Para ti” debe restablecer la mezcla temática con credibilidad. Herramientas para bloquear palabras y temas han demostrado utilidad; falta que la interfaz las haga accesibles y que la plataforma sea transparente con su eficacia.

En paralelo, la apertura de datos para investigación independiente es clave. Los evaluadores externos —academia, organizaciones civiles— necesitan muestras robustas para auditar cómo impactan los cambios. La opacidad solo alimenta sospechas y, lo que es peor, retrasa la identificación de sesgos que pueden corregirse con ingeniería.

Lo que sí está cambiando: señales mixtas, presión regulatoria y nuevas amenazas

Se detectan mejoras medibles en la visibilidad de ciertas narrativas tóxicas cuando las plataformas activan “modos de crisis” y priorizan fuentes con políticas editoriales claras. La rotación de políticas ha refinado la respuesta a desinformación médica y electoral, con excepciones notables. Se observa, también, fatiga en comunidades que consumían a diario contenido altamente polarizador y que ahora conviven con más paneles contextuales y menos “sugerencias” agresivas.

Todo ello convive con amenazas emergentes. La generación sintética de vídeo y audio abre un frente distinto: las deepfakes emotivas cuestan poco de producir y elevan engaño y retención a la vez. TikTok, YouTube y el resto han empezado a desplegar etiquetados y detección algorítmica, pero el gato y el ratón volverán a jugar. Si la recompensa algorítmica al impacto sigue intacta, el incentivo para experimentar con formatos más elaborados de falsificación también.

El debate no es moral: es estructural y cuantificable

Conviene evitar los extremos. Ni las plataformas “quieren” desinformar, ni los algoritmos son neutrales. Un recomendador optimizado para indicadores de negocio producirá, de manera predecible, efectos secundarios no deseados. Igual que una autopista diseñada solo para velocidad generaría más accidentes si no existieran límites, controles y señalización, un sistema de distribución masiva que solo mide el enganche valorará más lo extraordinario que lo verdadero. La cuestión no es si se debe censurar ni quién decide la verdad, sino cómo se recalibran pesos y frenos para que la información verificada compita con opciones similares de visibilidad cuando la actualidad aprieta.

Todo ello se puede medir. Cuotas de elevación de fuentes acreditadas, tiempos medios de reacción ante desmentidos, impacto real de controles de usuario, tasa de reaparición de contenidos retirados en clones o re-subidas, prevalencia de vídeos marcados como engañosos en el conjunto de recomendaciones. Esa caja de herramientas de métricas existe, pero requiere algo que a menudo falta: transparencia.

España y la ventana europea: hacia dónde señalan los próximos meses

El consumo informativo en España está ya profundamente mediatizado por plataformas. WhatsApp, Facebook, YouTube y, crecientemente, TikTok forman el cuadrilátero que organiza la conversación. La brecha de confianza en las noticias tradicionales reduce el anclaje de referencia y aumenta el impacto de narrativas simplificadas. La DSA obliga a medidas de mitigación de riesgo, a accesos de datos para investigadores y a mayor trazabilidad publicitaria. Su despliegue real —auditorías, sanciones si las hubiera, criterios uniformes— marcará la pauta de 2026.

En ese marco, YouTube y TikTok se juegan algo más que reputación. Si demuestran con datos que sus cambios reducen la visibilidad de bulos en picos de actualidad sin descuidar la innovación, ganarán margen regulatorio y social. Si, en cambio, las cifras reales muestran amplificación persistente, la presión para intervenir crecerá. La experiencia europea con otros ámbitos —competencia, privacidad— sugiere que, cuando llegan las sanciones, llegan con efectos.

Un ajuste de rumbo que sí es posible

La desinformación se mueve rápido porque encaja demasiado bien con los incentivos actuales. No hace falta una conspiración. Hace falta negocio, ingeniería y una palanca emocional humana que preexiste a Internet. El bulo gana cuando es corto, impactante y oportunista; cuando el sistema detecta que engancha, lo empuja. El antídoto no pasa por apagar el algoritmo ni por convertir las redes en hemerotecas. Pasa por modificar la recompensa: frenar mínimamente el alcance hasta verificar en temas de alto riesgo, premiar la consistencia de fuentes con estándares editoriales, mejorar de verdad los controles de usuario, abrir datos a auditoría y reconocer que la novedad y la emoción son oro para el negocio, pero también combustible para la mentira.

En el corto plazo, la ventana crítica es la de los primeros minutos u horas tras que estalla un asunto. Quien ocupe ese espacio con formatos nativos que informen sin renunciar al ritmo tendrá ventaja sobre el bulo. Y si la plataforma calibra su recomendador para no convertir la indignación en autopista de seis carriles, el ecosistema habrá dado un paso práctico y medible. No es retórica: es arquitectura.

Cómplices de los bulos

El algoritmo tal y como está diseñado premia el impacto; cuando ese impacto lo provoca un bulo, el sistema lo empuja. La buena noticia es que ese diseño se puede modular. Ni deshabilitar la recomendación ni levantar muros que impidan descubrir contenido; ajustar pesos, abrir datos, exigir pruebas de que las barreras funcionan y dar poder real a los controles de personalización. Mientras tanto, los episodios recientes ya muestran que la mejora es posible, pero insuficiente si los incentivos de fondo no cambian.

La pregunta no es si TikTok o YouTube deben convertirse en árbitros de la verdad. La pregunta es si sus motores seguirán premiando lo que solo engancha o si, con reglas claras y medibles, empezarán a premiar lo que informa casi igual de bien. Porque de esa elección, más que de grandes discursos, depende que el próximo bulo encuentre o no el carril rápido.


🔎​ Contenido Verificado ✔️

Este artículo se ha elaborado con información contrastada y accesible públicamente. Fuentes consultadas: Maldita.es, Comisión Europea, Reuters Institute, Mozilla Foundation, Science, TikTok Newsroom, YouTube Blog.

Periodista con más de 20 años de experiencia, comprometido con la creación de contenidos de calidad y alto valor informativo. Su trabajo se basa en el rigor, la veracidad y el uso de fuentes siempre fiables y contrastadas.

Lo más leído