Clear Sky Science · de

Wenn Algorithmen uns im Stich lassen: wahrgenommene algorithmische Ineffektivität, psychologische Reaktanz und implizite Persönlichkeit als Treiber von Algorithmusaversion auf Kurzvideo-Plattformen

· Zurück zur Übersicht

Warum das für Ihren Feed wichtig ist

Kurzvideo-Apps wie TikTok und Douyin versprechen, uns genau das zu zeigen, was wir wollen, genau dann, wenn wir es wollen. Dennoch ärgern sich viele Nutzer über ihre Feeds, misstrauen dem Gesehenen oder kämpfen ständig gegen die Empfehlungen an. Diese Studie stellt eine auf den ersten Blick einfache, aber folgenreiche Frage für unser digitales Leben: Was passiert psychologisch, wenn Menschen das Gefühl haben, der Algorithmus funktioniere einfach nicht für sie?

Figure 1
Figure 1.

Wenn der Feed sich falsch anfühlt

Die Forschenden konzentrieren sich auf eine zentrale Idee, die sie wahrgenommene algorithmische Ineffektivität nennen: das Empfinden, dass die Plattform fortwährend Videos liefert, die langweilig, unbrauchbar oder irrelevant sind. Anstatt zu messen, wie akkurat der Algorithmus tatsächlich ist, betrachten sie, wie akkurat er sich für die Nutzer anfühlt. Wenn empfohlene Clips als nicht erinnerungswürdig, bedeutungslos oder nicht überzeugend beurteilt werden, ist es wahrscheinlicher, dass Nutzer sich gegen das System wenden. Anders gesagt wird Enttäuschung mit dem Feed zum Ausgangspunkt für einen breiteren Widerstand gegen algorithmische Steuerung.

Von Irritation zu Gegenwehr

Der nächste Schritt ist die psychologische Reaktanz – das unangenehme Gefühl, das aufkommt, wenn wir glauben, unsere Freiheit werde eingeschränkt. Auf Douyin und ähnlichen Apps entscheidet die „Für dich“-Seite, was zuerst erscheint, und lenkt so stillschweigend die Aufmerksamkeit. Wenn dieser Stream mit dem kollidiert, was Nutzer glauben, sehen zu sollten, können sie sich geschubst, eingeengt oder sogar beobachtet fühlen. Die Studie zeigt, dass solche Momente der Nichtübereinstimmung mehr als nur irritieren. Sie entfachen das Gefühl, die App wolle den Nutzern vorschreiben, was sie sehen sollen, was wiederum Ärger, Ungeduld und den Drang, das Gegenteil zu tun, anheizt. Diese emotionale Gegenreaktion wird zu einem starken Treiber dessen, was die Autor:innen als Algorithmusaversion bezeichnen.

Figure 2
Figure 2.

Wie Menschen gegen den Feed vorgehen

Algorithmusaversion zeigt sich in subtilen, aber wichtigen Verhaltensweisen. Anstatt passiv zu scrollen beginnen Nutzer, empfohlene Clips zu meiden, manuell zu suchen oder ihre Playlists von Hand neu aufzubauen. Einige versuchen, das System „umzuschulen“, indem sie überspringen, blockieren oder unerwünschte Videos schnell durchwischen. Andere ziehen sich für Zeiträume zurück oder behandeln die Plattform mit einer Art müdem Zynismus: Sie nutzen sie weiter, aber mit geringem Vertrauen und niedrigen Erwartungen. Anhand von Umfragedaten von 733 Douyin-Nutzern zeigt die Studie, dass je wirkungsloser Menschen den Algorithmus empfinden, desto mehr psychologische Reaktanz sie angeben – und desto stärker sie diese kleinen Akte des Widerstands zeigen.

Persönlichkeit und Denkweisen im Algorithmuszeitalter

Nicht alle reagieren auf schlechte Empfehlungen auf dieselbe Weise. Die Autor:innen untersuchen ein Merkmal, das sie implizite Persönlichkeit nennen und das erfasst, ob Menschen Eigenschaften und Fähigkeiten als feststehend oder veränderbar sehen. Personen mit einer „fixed“-Denkweise behalten tendenziell eine stabile, skeptische Haltung gegenüber Algorithmen, egal ob diese gut oder schlecht funktionieren. Personen mit einer „growth“-Denkweise sind sensibler: Sie reagieren positiv, wenn das System hilfreich scheint, aber heftiger, wenn es versagt. Die Studie zeigt, dass bei dieser zweiten Gruppe das Gefühl, der Algorithmus sei ineffektiv, die psychologische Reaktanz stärker entzündet, was wiederum zu ausgeprägteren Verhaltensweisen der Algorithmusaversion führt.

Was Plattformen anders machen können

Diese Erkenntnisse deuten darauf hin, dass das Problem nicht nur in der technischen Genauigkeit von Empfehlungssystemen liegt, sondern darin, ob sich Menschen gehört und in Kontrolle fühlen. Wenn Nutzer den Feed als Einbahnstraße erleben, können schon kleine Fehltritte zu anhaltendem Misstrauen und Vermeidung eskalieren. Die Autor:innen argumentieren, dass Plattformen Nutzern klarere Möglichkeiten geben sollten, Empfehlungen zu verstehen und zu beeinflussen, echte Rückkopplungsschleifen schaffen sollten, wenn Nutzer Widerstand leisten, und Bedienelemente entwerfen sollten, die unterschiedliche Denkweisen respektieren. Kurz gesagt: Wenn Algorithmen uns im Stich lassen – oder sich nur so anfühlen –, zucken Menschen nicht einfach mit den Schultern und scrollen weiter. Sie passen sich an, leisten Widerstand und wenden sich manchmal stillschweigend von den Systemen ab, die ihnen eigentlich dienen sollen.

Zitation: Zeng, R., Zhu, D. & Evans, R. When algorithms fail us: perceived algorithmic ineffectiveness, psychological reactance, and implicit personality as drivers of algorithm aversion behavior on short-form video platforms. Humanit Soc Sci Commun 13, 266 (2026). https://doi.org/10.1057/s41599-026-06573-w

Schlüsselwörter: Algorithmusaversion, Kurzvideo-Plattformen, personalisierte Empfehlungen, psychologische Reaktanz, Benutzerautonomie