#Desinformation - ich habe neulich einen Vortrag dazu gehalten. Jetzt als (sehr langer)🧵.
Hoch relevant, denn in der kommenden Energiekrise könnte Desinformation auftreten, die Querdenker wie ein Kindergarten wirken lässt. Los geht's. 1/42
Nach dem Thread wissen wir, dass
- Desinformation auch ohne Absicht auftritt
- psychologische Impfung hilft
- und wie False Balance schadet
- Gamification helfen kann 2/42
Zunächst: Im Rahmen dieses Threads werden die Begriff Misinformation, Desinformation und Malinformation synonym behandelt. Das sind sie eigentlich nicht, aber dies hier ist auch keine Hausarbeit. ;) 3/42
Zunächst: Menschliche Faktoren.
1. Falsche Information verbreitet sich bis zu 6x schneller und um Größenordnungen(!) weiter.
(Pröllochs, et al (2021). Emotions explain differences in the diffusion of true vs. false social media rumors) doi.org/10.1038/s41598… 4/42
Das heißt auch: Faktenchecks verbreiten sich langsamer und weitaus weniger weit.
„False news spread farther, faster, deeper, and more broadly“ (Roy Vosoughi, 2018)
Das passt zu Brandolini's Law. 5/42
Nicht jede "Trägeremotion" erzeugt dabei die gleiche Viralität. Nach Nicolas Pröllochs geht die Viralität insbesondere auf Überraschendes zurück. Macht Sinn: Lügen haben es viel leichter, zu überraschen, sie müssen ja nicht stimmen. 6/42
2. Nur wenige Personen sind Urheber.
Zumindest in den USA und beim Thema Covid-19 identifizierte @kakape 12 Personen, die für 73% der Misinformation verantwortlich waren. 7/42
3. Hass ist online und offline gleich @M_B_Petersen fand heraus, dass die Menschen offline und online ungefähr gleich hasserfüllt sind.
(2021, doi.org/10.1017/S00030…) 8/42
4. Wer Fehlinformationen teilt, mag die andere Seite nicht.
Wieder @M_B_Petersen: Wer politische Fehlinformation teilt, ist nicht ignoranter als der Durchschnitt und teilen ansonsten auch richtige, aber voreingenommene Informationen. 9/42
5. Daraus geht mE hervor: Es gibt of keinen sinistren Mastermind oder Financier. Desinformation kann auch ohne planvolle Urheber entstehen und verbreitet sich in einer eigenen Dynamik.
Es gilt vermutlich Hanlon's Razor. 10/42
6. Je extremer die Accounts sich positionieren, desto weniger oft sind sie verified. (Bovet, A., & Makse, H. A. (2019). Influence of fake news in Twitter during the 2016 US presidential election. Nature Communications, 10(1), 7. doi.org/10.1038/s41467…) 11/42
Ich vermute, hier können wir Benford's Law of Controversy geltend machen: 12/42
7. Spannend für mich: Bots spielen offenbar keine messbare Rolle beim Verbreiten von Desinformation. Vielmehr ist es so, dass sich alle Seiten gegenseitig vorwerfen, in Wirklichkeit Bots zu sein.
Vosoughi, S., Roy, D., & Aral, S. (2018) 13/42
8. Rabbit Holes
Hier wird's spannend: Da Begriffe bei Verschwörungstheorien oft neu sind, gibt eine Onlinesuche dann auch nur entsprechende Seiten aus. Das "Informier-Dich-Selbst-Rabbit Hole". (Kleinen-von Königslöw @kkvk7, von Nordheim, 2021, S. 23) 14/42
Die daraus folgende „Erfahrung kollektiver Identität normalisiert und legitimiert die eigene Überzeugung" (zitiere wieder @kkvk7) heißt quasi: Wenn Du zu lange in das Kaninchenloch starrst, starrt das Kaninchenloch zurück. 15/42
9. Ebenfalls @kkvk7: Neue Inhalte entwickeln sich dann oft durch eine Art kollaboratives Verschwörungsspiel in Telegramgruppen und ähnliche. Gewissermaßen ein MMPORG, Massive Multiplayer Online Roleplay Game. 16/42
Zusammengefasst bis hier:
- Falsch = 6x schneller
- Wenige Urheber*innen
- Teilnehmer*innen an Desinformation haben oft negativere Grundgefühle
- Menschen, nicht Bots sind verantwortlich
- Verschwörungstheorien sind MMPORGs
- Rabbit Holes 17/42
Nach den menschlichen Faktoren nun die Umweltfaktoren.
1. „Plattformbetreiber*innen sind radikal indifferent gegenüber der Qualität der Inhalte“ (@shoshanazuboff, 2018). Die Ursache sind wirtschaftliche Interessen, die Folge sind Qualitätsdefizite. 18/42
2. Das passiert weniger, wenn die Diskursqualität stimmt. Asynchron, nicht anonym, moderiert und thematisch fokussiert.
Neuberger, C. @alttaler (2022). Digitale Öffentlichkeit und liberale Demokratie. 19/42
3. Grundprobleme gibt es, wenn die eigentlich vertrauenswürdigen Quellen selbst unsauber arbeiten. Dann fällt ein leichtfüßiges enttarnen viel schwerer. 20/42
4. Oft sind Cargo-Kulte ein Problem: Wenn Menschen nicht begreifen, warum etwas getan wird, sind sie viel anfälliger für alternative Erklärungen der Realität. Das betrifft sowohl das Innenleben von Unternehmen als auch Gesellschaften. de.wikipedia.org/wiki/Cargo-Kult 21/42
5. Auch das Festhalten an Zuständigkeiten kann anfällig machen: In Portugal konnte mit dem dezidiert unpolitischen Admiral e Melo den dortigen Querdenkern der Wind aus den Segeln genommen werden.
6. Ich vermute: Es gibt eine kritische Schwelle von der Anzahl von Personen in jedem System, aber der die Mechanismen für Desinformation greifen. Wie groß? Keine Ahnung, aber größer als Dunbar's Number dürfte es sein. 23/42
Nun gut - aber was hilft denn und was können wir unternehmen?
1. Ich glaube: Ich glaube insbesondere vor großen Veränderungen sollten Personen präventiv aus Desinformation vorbereitet werden. Beispielsweise jetzt, vor der nahenden Energiekrise. 24/42
2. Wie sehr hilft so ein Prebunking? Absolute Leseempfehlung: Dieses brandneue Paper.
Erstmal die Grafik wirken lassen. Wie sehr möchten Leute ihre Meinung ändern, wenn sie bestimmte Informationen erhalten? Inoculation (W) sind "Flags", (F) sind Argumente. 26/42
Hier sehen wir, dass die False Balance-Gruppe zeigt ähnliche Haltung wie die nicht informierte Kontrollgruppe. False Balance-Gruppe zeigt ähnliche Haltung wie die nicht informierte Kontrollgruppe 27/42
Hier wird deutlich: Plattformen sollten besser darin werden, unzuverlässige Quellen und irreführende oder faktisch falsche Inhalte zu kennzeichnen oder sogar zu löschen. 28/42
Am wirksamsten ist die volle "Inoculation" - Vorwarnung und präventive Widerlegung des (erwarteten) Desinformation. 29/42
Hier eine kurze Sammlung, was so eine rhetorische Impfung können muss: Bedrohung muss klar sein, und wer geimpft wurde, ärgert sich darüber, wenn er oder sie desinformiert werden soll. 30/42
3. Natürlich trifft das auch auf Impfskepsis zu: Hier einige Erkenntnisse von @CorneliaBetsch. Wer sich auf impfskeptischen Seiten informiert, ist danach impfskeptisch. 31/42
4. Die Folge für mich daraus: Multiplikatoren müssen massiv vorab prebunked werden und dann in Stammtischen, Kegelklubs, Kantinen und Online wirken. 32/42
5. Ich würde die These aufstellen, dass es für jede soziale Gruppe eine Prozentzahl Mitglieder gibt, ab der die gesamte Gruppe besser vor Desinformation geschützt ist. 33/42
6. Gamification hilft: Dieses Spiel beispielsweise lässt euch in die Rolle der Desinformierer schlüpfen. Dadurch erkennt ihr dann leichter die Strategien und seid resilienter. getbadnews.com 34/42
Der Effekt ist nicht riesig, aber messbar: Die Glaubwürdigkeit von Fake News sank in Deutschland, Griechenland und Polen nach dem Spielen signifikant. (@roozenbot) 35/42
Das Ganze gab es in Großbritannien auch gegen Covid-19-Desinformation. Das Go Viral Game. goviralgame.com 36/42
Und was können wir machen?
1. Privat
Sich selbst zum Teil der kritischen Masse machen, Desinformationsspiele spielen und empfehlen und in eigenen Organisationen Workshops und Maßnahmen einfordern. Jeder Kopf zählt. 37/42
2. Unternehmen
- Entscheidungsprozesse transparent begründen
- Hohen internen Standard für Darstellung von Daten schaffen
- Vor Veränderungen und Krisen Multiplikatoren impfen
- Regelmäßige Audits der Gerüchteküche 38/42
3. Politik
- Anti-Desinformations-Programme für für alle Beamtinnen und Beamte
- An Schulen
- "Tag der Desinformation": Bundesweit sensibilisieren und Multiplikatoren anwerben
- Plattformen um stärkere Verbreitung von Prebunking bitten 39/42
4. Medien
- Falsches auch klar kennzeichen
- False Balance minimieren
- True Balancing: Sowohl links *und* rechts andere Meinungen präsentieren
- Prebunking Raum geben 40/42
5. Klar werden: Die kommende Krise wird Desinformation hervorbringen, gegen die die Querdenker wie ein Kindergarten wirken. Hier muss etwas getan werden. Fordert es ein. 41/42
So, das wars. Die hübschen Bilder wurden übrigens mit @midjourney generiert. Danke auch dafür :)
Wichtig: Wenn ihr den Thread zu #Desinformation lest und meint, das betrifft nur die "Anderen" - vermutlich seid ihr selbst auch in einigen Themen betroffen.
Hier ist eine gute Liste, die Mythen mit politischer Überzeugung korreliert.
/50
Die Lage in Israel ist beispiellos. Niemand weiß, wofür die Hamas angriff - und wie sich Israel nun entwickeln wird. Ein Thread 🧵zur entscheidenden Rolle von Netanyahu und zur Gefahr von Terror auch im Ausland.
1/
Zunächst: Die Hamas. Jede Terrororganisation braucht Terror, um zu existieren. Angriffe auf den Gaza-Streifen verursachen Leid; und dieses Leid verschafft der Hamas politische Macht - im Inneren.
2/
Gleichzeitig erinnert das Massaker an Zivilisten in Israel eher das Vorgehen von ISIS als an einen Unabhängigkeitskampf. Es wird dafür sorgen, dass niemand bedeutsames die Hamas ernsthaft verteidigen wird.
Zunächst der Klassiker: Attack the Accuser, den Angriff abschwächen.
Das Ziel: Leute sollen ihn nicht allzu ernst nehmen. Hier soll nur Unruhe gestiftet und abgelenkt werden.
Aber: Wofür möchte die ZEIT "Unruhe" stiften? Was ist das "Wesentliche"?
2/
Diese Verteidigung macht mich neugieriger. Offenbar wissen die #Springer-Kreise schon, wofür die @DIEZEIT das macht.
Besser wäre gewesen: "Die ZEIT hat private SMS auf die Türschwelle gelegt bekommen und ist nun Handlanger eines Dritten. Das ist kein Journalismus."
3/
Ich bin ersetzbar. So grundsätzlich ist das jeder. Aber GPT-4 verändert die Lage erheblich. Denn GPT-4 bedeutet, dass ich teilweise durch mich selbst ersetzbar bin. Ich habe Bing gebeten, unsere "PR-Werkstatt Krisenkommunikation" zu lesen und die Erkenntnisse anzuwenden. 1/9
Die Inhalte der PR-Werkstatt haben wir erarbeitet, und sie müssen eigentlich gekauft werden. Bing sucht nach "pdf" und greift trotzdem darauf zu. Und dann wendet Bing es an - in einer Qualität, die ich bei uns auch von einer Senior bei uns erwarten würde. 2/9
Natürlich ist noch ein weiter Weg vom Vorschlag zur Umsetzung. Insbesondere die heikle Aufgabe, einen Krisenstab zu managen ist leichter gesagt als getan. 3/9
Ich weiß nicht, wie es euch geht - der Krieg wirkt für mich zunehmend unübersichtlich. Beim Krisenmanagement würde ich jetzt die Basismotivationen aller Beteiligten analysieren, um dann Szenarien abzuleiten. Was also haben alle offenbart? 1/28
Die relevanten Akteure aus meiner Sicht: Russland, China, USA, EU und die Ukraine.
tl;dr: Die einen haben ein Interesse an einem langen Krieg (Russland, China), die anderen den Willen, nicht aufzugeben (USA, Ukraine), und wieder andere keine Wahl (EU). 2/28
1. Zunächst: Putin.
Er will durchhalten, bis der politische Wille der NATO schwindet. Daran arbeitet der FSB hart. Grundsätzlich muss Russland dafür nur nicht aufgeben - die Ukraine ist nicht stark genug, die Russen vollkommen zu vertreiben.