Clear Sky Science · it

Quando gli algoritmi ci tradiscono: percezione di inefficacia algoritmica, reattanza psicologica e personalità implicita come fattori di avversione agli algoritmi sulle piattaforme di video brevi

· Torna all'indice

Perché questo conta per il tuo feed

Le app di video brevi come TikTok e Douyin promettono di mostrarci esattamente ciò che vogliamo, proprio quando lo vogliamo. Eppure molte persone si ritrovano comunque infastidite dal proprio feed, diffidenti rispetto a ciò che vedono o in continua contesa con le raccomandazioni. Questo studio pone una domanda apparentemente semplice ma dalle grandi conseguenze per la nostra vita digitale: cosa accade, dal punto di vista psicologico, quando le persone percepiscono che l'algoritmo semplicemente non funziona per loro?

Figure 1
Figure 1.

Quando il feed sembra sbagliato

I ricercatori si concentrano su un concetto chiave che chiamano percezione di inefficacia algoritmica: la sensazione che la piattaforma continui a proporre video noiosi, inutili o irrilevanti. Invece di misurare quanto l'algoritmo sia realmente accurato, osservano quanto lo sia nella percezione degli utenti. Quando le persone giudicano i clip raccomandati come non memorabili, privi di significato o poco convincenti, sono più inclini a reagire contro il sistema stesso. In altre parole, la delusione rispetto al feed diventa il punto di partenza per una più ampia resistenza alla guida algoritmica.

Dall'irritazione al contrasto

Il passo successivo è la reattanza psicologica — la sensazione spiacevole che proviamo quando crediamo che la nostra libertà venga limitata. Su Douyin e app simili, la pagina "Per te" decide cosa appare per prima, indirizzando l'attenzione in modo sottile. Quando questo flusso si scontra con ciò che gli utenti ritengono dovrebbero vedere, possono avvertirsi spinti, sovraffollati o addirittura osservati. Lo studio mostra che tali momenti di disallineamento fanno più che irritare: accendono la sensazione che l'app stia cercando di dire agli utenti cosa guardare, alimentando quindi rabbia, impazienza e l'impulso a fare l'opposto. Questa reazione emotiva diventa un potente motore di quella che gli autori chiamano avversione agli algoritmi.

Figure 2
Figure 2.

Come le persone contrastano il feed

L'avversione agli algoritmi si manifesta in modi sottili ma significativi. Anziché scorrere passivamente, gli utenti iniziano ad evitare i clip raccomandati, cercano manualmente contenuti o ricostruiscono le loro playlist a mano. Alcuni cercano di "riaddestrare" il sistema saltando, bloccando o scorrendo rapidamente i video indesiderati. Altri si disimpegnano per periodi o trattano la piattaforma con una sorta di cinismo stanco: la continuano a usare, ma con bassa fiducia e basse aspettative. Utilizzando dati di un sondaggio su 733 utenti Douyin, lo studio rileva che più le persone percepiscono l'algoritmo come inefficace, maggiore è la reattanza psicologica riportata — e più intense sono queste piccole azioni di resistenza.

Personalità e mentalità nell'era degli algoritmi

Non tutti reagiscono alle raccomandazioni errate allo stesso modo. Gli autori esaminano un tratto chiamato personalità implicita, che cattura se le persone vedono tratti e abilità come fissi o modificabili. Chi ha una mentalità "fissa" tende a mantenere un atteggiamento stabile e scettico verso gli algoritmi, funzionino bene o male. Chi ha una mentalità di "crescita" è più sensibile: risponde positivamente quando il sistema sembra utile, ma reagisce più intensamente quando fallisce. Lo studio mostra che per questo secondo gruppo, la percezione di inefficacia algoritmica innesca più fortemente la reattanza psicologica, che a sua volta porta a comportamenti di avversione agli algoritmi più marcati.

Cosa possono fare diversamente le piattaforme

Questi risultati suggeriscono che il problema non è solo se i motori di raccomandazione sono tecnicamente accurati, ma se le persone si sentono ascoltate e in controllo. Quando gli utenti vivono il feed come una strada a senso unico, anche piccoli errori possono trasformarsi in sfiducia e evitamento duraturi. Gli autori sostengono che le piattaforme dovrebbero offrire modi più chiari per comprendere e influenzare le raccomandazioni, creare veri circuiti di feedback quando gli utenti reagiscono e progettare controlli che rispettino mentalità differenti. In termini semplici: quando gli algoritmi ci tradiscono — o anche solo danno l'impressione di farlo — le persone non si limitano a scrollare. Si adattano, resistono e talvolta si allontanano silenziosamente dai sistemi pensati per servirle.

Citazione: Zeng, R., Zhu, D. & Evans, R. When algorithms fail us: perceived algorithmic ineffectiveness, psychological reactance, and implicit personality as drivers of algorithm aversion behavior on short-form video platforms. Humanit Soc Sci Commun 13, 266 (2026). https://doi.org/10.1057/s41599-026-06573-w

Parole chiave: avversione agli algoritmi, piattaforme di video brevi, raccomandazioni personalizzate, reattanza psicologica, autonomia dell'utente