Desinformation vs. Globale Gesundheit – aktuelle Trends und Handlungsoptionen

8 August 2022

Von Mauritius Dorn

_________________________________________________________________________________

Globale Gesundheitskrisen haben massive humanitäre und sozioökonomische Auswirkungen. Das hat die COVID-19-Pandemie schlaglichtartig klargemacht. Jetzt geht es darum, unser Krisenmanagement den Realitäten des digitalen Zeitalters anzupassen und in Bezug auf unsere Reaktionsfähigkeit vor die Kurve zu kommen.

Obgleich die Pandemie nach mehr als zwei Jahren immer noch nicht bewältigt ist, läuft die politische Aufarbeitung daher bereits auf Hochtouren: Inwiefern müssen Notfallpläne und Leitlinien aktualisiert werden? Wie können Gesundheitsinfrastrukturen noch widerstandsfähiger gemacht werden? Und welche internationalen Krisenmechanismen werden benötigt, um für die nächste globale Pandemie besser gewappnet zu sein?

Ein wesentliches Themenfeld bleibt in der aktuellen Debatte jedoch noch weitgehend unberücksichtigt: die Lehren aus der Bekämpfung von Gesundheitsfehl- und -desinformationen. Während Fehlinformationen falsche oder irreführende Inhalte meinen, die ohne vorsätzliche Schädigungsabsicht weitergegeben werden, beziehen sich Desinformationen auf absichtlich verbreitete falsche oder irreführende Inhalte, die der Öffentlichkeit schaden können (Europäische Kommission, 2020).

Zwar haben Faktenprüfende während der COVID-19-Pandemie ihre Aktivitäten ausgeweitet, Online-Plattformen ihre Gemeinschaftsstandards verschärft, Gesundheitsorganisationen neue Informationsangebote eingeführt und Forschende relevante Desinformationsakteur:innen identifiziert. Dennoch haben Gesundheitsfehl- und -desinformationen das Krisenmanagement erheblich beeinträchtigt. Zum einen wurde die Bereitschaft verringert, Gesundheitsmaßnahmen zu befolgen oder sich impfen zu lassen (Roozenbeek et al., 2020; Romer & Jamieson, 2020; Loomba et al., 2021; Imhoff & Lamberty, 2020; Freeman et al., 2020). In einer randomisierten Kontrollstudie in den USA und dem Vereinigten Königreich fanden Loomba et al. (2021) zum Beispiel heraus, dass Fehlinformationen zu COVID-19-Impfstoffen im Vergleich zu Sachinformationen zu einem Rückgang der Impfbereitschaft von über 6 % bei denjenigen führten, die sich ansonsten »auf jeden Fall impfen lassen« würden. Zum anderen wurden Desinformationen weltweit auch gegen medizinisches Personal, Gesundheitsexpert:innen, Impfzentren und öffentliche Einrichtungen eingesetzt (Ward et al., 2022; Taylor, 2020; O’Grady & Errington, 2022; Nogrady, 2021; Mello et. al., 2020). Die Verbreitung von Gesundheitsfehl- und -desinformationen trug dazu bei, dass sich die Impfkampagnen vielerorts verzögerten und eine Herdenimmunität nicht erreicht werden konnte. Doch warum gelingt es uns nicht, Gesundheitsfehl- und -desinformationen und ihre Auswirkungen auf die öffentliche Gesundheit und Sicherheit effektiver einzudämmen?

Projekt AHEAD vermittelt integriertes Verständnis

Um diese Frage auf Grundlage aktueller Forschungsbefunde mit Vertreter:innen aus Politik, Wissenschaft und Zivilgesellschaft zu diskutieren und nachhaltige Lösungsansätze voranzutreiben, hat ISD Germany mit finanzieller Unterstützung der Bill & Melinda Gates Foundation (BMGF) das unabhängige Projekt AHEAD ins Leben gerufen.

Projektziel ist es, ein integriertes Verständnis von Desinformationen in Politik, Wissenschaft und Zivilgesellschaft aufzubauen, um die Widerstandsfähigkeit der Gesellschaft zu verbessern. Der Hintergrund ist ein immer komplexer werdendes Geflecht von staatlichen wie nichtstaatlichen Akteur:innen sowie die zunehmende Intersektoralität von Desinformationskampagnen. In anderen Worten: Desinformationsakteur:innen verknüpfen zunehmend unterschiedliche Vektorthemen der Desinformation, um ihre finanziellen, ideologischen und/oder geopolitischen Ziele zu erreichen. Dazu gehören in besonderem Maße die Themenfelder Globale Gesundheit, Migration, Geschlechtergerechtigkeit und Klimawandel. Sie bilden deswegen die inhaltlichen Schwerpunkte des zweijährigen Projektes.

Implementiert wird das Projekt mit Hilfe von Informations- und Dialogveranstaltungen von Mai 2022 bis Juni 2024 sowie zusätzlichen Desinformationstrainings für Vertreter:innen aus dem Bundestag und der Bundesregierung ab Herbst 2022. Am 31. Mai 2022 startete das Projekt im Rahmen eines Fachgesprächs im Bundestag auf Einladung von Matthias Mieves (SPD), MdB. Bei der Veranstaltung präsentierten Desinformations- und Extremismusexperte Till Baaken und Projektleiter Mauritius Dorn (beide ISD) aktuelle Trends von Gesundheitsfehl- und -desinformationen, die mitunter Initiativen im Bereich der Globalen Gesundheit einschränken, und diskutierten mit den Teilnehmenden mögliche Handlungsoptionen.

Aktuelle Trends

Takeaway 1: Faktenprüfung von Facebook überfordert

Sehr große Online-Plattformen – solche, die von mehr als 10 % der Bevölkerung genutzt werden – haben es bisher nicht ausreichend geschafft, trotz ihrer großen finanziellen Ressourcen gesundheitsbezogene Desinformationskampagnen zeitnah und effektiv einzuschränken. Dies zeigt sich insbesondere im Falle von Facebook.

Die ISD-Studie »Schlechter Rat« dokumentiert, wie sich die World Doctors Alliance (WDA) und ihre Mitglieder – ein Zusammenschluss von COVID-19- und impfskeptischen aus Ärzt:innen und Wissenschaftler:innen unter anderem aus den USA, Großbritannien, Irland und Deutschland – innerhalb kürzester Zeit auf Facebook ohne größere Hindernisse zu Superspreadern von Gesundheitsdesinformation entwickeln konnten.

Zwischen Januar 2020 und Juli 2021 verzeichnete das ISD einen Anstieg in Höhe von 13.215 % der Nutzer:innen, die verbundenen Facebook-Seiten folgten. Facebook-Beiträge, in denen die WDA oder ihre Mitglieder erwähnt werden, wurden gar mehr als drei Millionen Mal aufgerufen. Sie generierten insgesamt 5,77 Millionen Interaktionen und waren in mindestens 46 Sprachen auf der Online-Plattform präsent. Große Teile – in den meisten Fällen die Mehrheit – der aufgerufenen Inhalte waren dabei falsche, irreführende oder konspirative Behauptungen in Verbindung mit COVID-19 und Impfstoffen, obwohl diese nach den Gemeinschaftsstandards von Facebook vielfach unzulässig waren.

 

Englisch Spanisch Arabisch Deutsch
Problematische Beiträge mit Warnhinweis 13 %​ 4,5 %​ 2,4 %​ 8,3 %​
Interaktionen bei Beiträgen mit Warnhinweis insg. 122.091 10.075 517​ 2.958
Ø Interaktionen bei Beiträgen mit Warnhinweis 24.418​ 5.075 517​ 1.479
Interaktionen bei Beiträgen ohne Warnhinweis insg. 567.129​ 157.536 58.247​ 63.007
Ø Interaktionen bei Beiträgen ohne Warnhinweis 17.722 3.750​ 1.456 2.863​

Abbildung 1: Analyse der Beiträge mit Faktenprüfungs-Warnhinweis für die 50 populärsten Beiträge (i. A. a. ISD, 2021, S. 12)

 

Außerdem stellte das ISD erhebliche Defizite im Faktenprüfungsprogramm von Facebook fest, in dem das Unternehmen mehr als 80 Faktenprüfungsorganisationen in über 60 Sprachen weltweit zusammenarbeitet, um virale Fehlinformationen zu identifizieren.

Das ISD fand heraus, dass 74 % der 50 populärsten englischsprachigen Facebook-Beiträge, in denen die WDA oder ihre Mitglieder erwähnt wurden, problematische Behauptungen enthielten (z. B. »Hydroxychloroquin/Vitamin C/Zink können COVID-19 heilen« oder »COVID ist eine ‚Betrugspandemie‘ oder ‚Plandemie‘«). Gleichzeitig waren nur 13 % der englischsprachigen Beiträge mit einem Warnhinweis versehen. Solche werden angebracht, sobald Inhalte bewertet wurden, und verlinken auf einen Artikel der Faktenprüfenden.

Bei deutschsprachigen Beiträgen lag der Anteil der mit einem Warnhinweis versehenen Beiträge sogar noch niedriger bei 8 %, im Spanischen bei 5 % und im Arabischen bei lediglich 2 % (siehe Abb. 1). Mit einem Warnhinweis versehene Beiträge erhielten dabei sprachübergreifend insgesamt weniger Interaktionen als solche ohne Warnhinweis. Trotzdem lagen die durchschnittlichen Interaktionsraten bei Beiträgen mit Warnhinweis teilweise höher. Diese relativ höheren Raten in einigen Sprachen könnten jedoch auch auf den Zeitpunkt der Kennzeichnung zurückzuführen sein. Denn wenn ein Beitrag für eine Faktenprüfung ausgewählt wurde, nachdem bereits Interaktionen in erheblichem Umfang stattgefunden haben, kann der Großteil dieser Interaktionen vor der Kennzeichnung erfolgt sein.

Ein weiteres festgestelltes Defizit war, dass die Faktenprüfung häufig dieselben Behauptungen oder Videos in mehreren Artikeln und Sprachen entlarvte, während andere problematische Inhalte nicht berücksichtigt wurden. Dies zeigt, dass die individuelle Überprüfung von Inhalten kaum möglich ist, wenn die zu überprüfenden Accounts (und ihr Publikum) weiterhin in hoher Frequenz Inhalte verbreiten. Zudem waren Variationen von bereits geprüften und gekennzeichneten Beiträgen, die kaum bearbeitet und lokal auf Facebook hochgeladen wurden, oft nicht mit Warnhinweisen versehen. Dies deutet darauf hin, dass die Erkennungssysteme von Facebook sehr ähnliche Inhalte teilweise nicht identifizieren können.

Wenn Gesundheitsfehl- und -desinformationen nicht angemessen entfernt oder gekennzeichnet werden, können nachteilige Auswirkungen auf die Bekämpfung von Krankheiten entstehen. Insbesondere sprachbezogene Unterschiede in der Anwendung und Durchsetzung der Gemeinschaftsstandards und Faktenprüfung erschweren ein grenzüberschreitendes Vorgehen gegen globale Pandemien, was deren Ausbreitung begünstigen dürfte.

Takeaway 2: Öffentliche Gesundheit als Einflugschneise

Obwohl die Plattformanbieter sicherlich eine besondere Verantwortung tragen, wäre es zu einfach, ihnen die alleinige Schuld für die massenhafte Verbreitung von Gesundheitsfehl- und -desinformationen und ihren Auswirkungen auf die öffentliche Gesundheit und Sicherheit zuzuschreiben. Denn auch sie sind Dynamiken von Desinformationskampagnen ausgesetzt, deren Ursprünge außerhalb der Plattformsysteme liegen.

So haben sich im Zuge der COVID-19-Pandemie die treibenden Kräfte hinter Desinformationen und Polarisierung in noch nie dagewesener Weise organisiert und zu einer neuen ideologischen Wucht zusammengeschlossen. Ihre Motive reichen dabei von geopolitischen Interessen über Ideologien und Trolling bis hin zu rein finanziellen Interessen.

Insbesondere der russische Staatssender Russia Today Deutschland (RT DE) nutzte die COVID-19-Pandemie gezielt aus. Mit seiner kritischen Berichterstattung über staatliche COVID-19-Maßnahmen, die oft falsche oder irreführende Inhalte enthielt, zielte RT DE erfolgreich darauf ab, als vertrauenswürdiges Medium bei COVID-19-skeptischen Personen wahrgenommen zu werden. In der ISD-Studie »Ein Virus des Misstrauens« konnte detailliert dargelegt werden, wie RT DE durch seine Beiträge zu einem organischen Bestandteil der Online-Communities von COVID-19-skeptischen Personen in Deutschland wurde.

Zum Beispiel waren die Top-50 Facebook-Gruppen, die zwischen März und Juli 2021 am häufigsten Links zu den populärsten YouTube-Videos von RT DE über COVID-19 teilten, allesamt Coronaleugner:innen, Impfverweigerer:innen, Verschwörungsideolog:innen oder Rechts- bzw. Linkspopulist:innen zuzuordnen. In einem Sample von 279 deutschsprachigen Telegram-Kanälen aus dem rechtsextremen und verschwörungsideologischen Milieu gehörte RT DE außerdem sowohl zu den Top-10 populärsten Domänen, als auch zu den Top-5 populärsten Nachrichtenseiten. Das hier aufgebaute Vertrauen setzte RT DE im Frühjahr 2022 schließlich auch zur Verbreitung von russischer Kriegspropaganda im Vorfeld des russischen Angriffskriegs auf die Ukraine ein. Dies zeigt, dass geopolitische Interessen auch bei der Anheizung gesundheitsbezogener Diskurse eine wichtige Rolle spielen. Sie dienen als taktischer Hebel zur Durchsetzung der eigenen, oft demokratiefeindlichen Agenda. Dies gilt auch für die anderen Vektorthemen, mit denen sich das Projekt AHEAD auseinandersetzt.

Darüber hinaus nutzten beispielsweise aber auch Klimaleugner:innen falsche oder irreführende Inhalte, die sich während der COVID-19-Pandemie in bestimmten Bevölkerungssegmenten verankert hatten. So veranschaulicht die ISD-Studie »Deutschland und der angebliche Klimalockdown«, wie die Verschwörungserzählung des »Klimalockdows« – die Behauptung, Regierungen nähmen den Menschen unter dem Vorwand, den Klimawandel zu bekämpfen, ihre persönlichen Freiheiten – besonders in rechtsextremen und verschwörungsideologischen Gruppen und Kanälen auf Online-Plattformen verbreitet wurde. Ausgangspunkt stellte hier der Begriff »Lockdown« dar, der sich während der COVID-19-Pandemie zum politischen Kampfbegriff entwickelte und gerade auf Telegram forciert worden war.

Dass Desinformationsakteur:innen aus dem In- und Ausland bei bestimmten Bevölkerungssegmenten verankerte Erzählmuster auf andere Themen anwenden, bestätigt auch eine ISD-Analyse zur Diskussion über die Affenpocken-Notlage. Hier wurden in verschwörungsideologischen Kreisen dieselben angeblichen Urheber:innen ausmacht wie bei COVID-19.

Die beschriebene narrative Ausnutzung der COVID-19-Pandmeie verdeutlicht die Relevanz von Gesundheitsthemen als Einflugschneise für Desinformationsakteur:innen aus anderen Themengebieten mit unterschiedlichen Motivlagen. Deshalb ist es dringend erforderlich ein integriertes Verständnis von Desinformationen aufzubauen, anhand von themenübergreifenden Informations- und Vernetzungsinitiativen wie dem Projekt AHEAD.

Takeaway 3: Desinformationsakteur:innen finden alternative Kanäle

Ein weiteres maßgebliches Kriterium für den Erfolg von Desinformationskampagnen sind die ausgeklügelten Taktiken zur Umgehung von Einschränkungen seitens der Online-Plattformen oder auch der Regulierungsbehörden.

Zum Beispiel griffen die WDA-Mitglieder sehr schnell auf traditionelle Verbreitungsmedien zurück, nachdem Facebook sein Vorgehen gegen die WDA und ihre Mitglieder Ende 2021 merklich intensiviert hatte. Dazu gehörten unter anderem die Gründung neuer Organisationen, die Veröffentlichung von Büchern und Dokumentationen, Fernsehauftritte, Radioshows oder etwa die Teilnahme an Protesten gegen COVID-19-Maßnahmen. Indem über diese Aktivitäten wiederum auf den Online-Plattformen berichtet wurde, konnten Facebook-Beiträge, in denen die WDA oder ihre Mitglieder erwähnt wurden, zwischen November 2021 und Mai 2022 weiterhin noch knapp 400.000 Interaktionen generieren – ein Befund, der zeigt, dass Deplatforming zwar die Reichweite großer Desinformationsakteur:innen stark reduzieren kann, gleichzeitig aber auch ein Abwandern auf alternative Plattformen herbeiführt, deren rückläufige Social-Media-Kommunikation teilweise schwer zu moderieren ist.

Wie Desinformationsakteur:innen ihre Aktivitäten konkret an neue Rahmenbedingungen anpassen, veranschaulicht auch eine ISD-Analyse zu den Umgehungstaktiken von RT DE. So registrierte RT DE kurz nach der Sperrung durch die europäischen Regulierungsbehörden und Online-Plattformen im März 2022 zahlreiche neue Accounts auf alternativen Online-Plattformen wie der Blockchain-gestützten Video-Sharing-Plattform Odysee oder der in Russland gegründeten Online-Plattform VK. Dabei wurden über VK vor allem Links zu Videos von RT DE und über Odysee Links zu neu erstellten Accounts auf den sehr großen Online-Plattformen geteilt. Auf den sehr großen Online-Plattformen verbreiteten außerdem Mitarbeitende von RT DE sowie andere, noch nicht gesperrte russische Staatssender über ihre eigenen Accounts weiterhin Inhalte von RT DE. Auf YouTube wurde sogar ein gänzlich neuer Kanal eingerichtet, der RT DE-Inhalte unter der Marke »Dig Deep« weiterverbreitete. In rechtsextremen und verschwörungsideologischen Telegram-Kanälen wurden außerdem Anleitungen ausgetauscht, wie die Sperrung technisch umgangen werden kann.

Die große Anpassungsfähigkeit der Desinformationsakteur:innen bedeutet, dass auch Gegenmaßnahmen wie z. B. Deplatforming immer wieder an aktuelle Trends und Umgehungstaktiken angepasst werden müssen. Die Verzahnung von Netzwerken und Erzählungen macht es jedoch immer schwieriger, problematischer Accounts und Inhalte zu sperren.

Damit stellt sich abschließend die Frage, welche Lösungsansätze überhaupt geeignet sein können, um die genannten Herausforderungen der Gesundheitsfehl- und -desinformationen anzugehen und den Desinformationsakteur:innen wieder einen Schritt voraus zu sein.

Handlungsoptionen

  1. Einheitliche Standarddefinitionen etablieren

Die Bekämpfung von themen- und plattformübergreifender Gesundheitsfehl- und -desinformationen kann nur gelingen, wenn ihre Gegner:innen aus Regulierungsbehörden, Plattformen, Wissenschaft und Zivilgesellschaft auch über ein gemeinsames grundsätzliches Verständnis von Desinformationen und ihren Elementen verfügen.

Facebook und Instagram Twitter YouTube/

Google

TikTok Telegram
Formelle Aufnahme von Gesundheitsfehl-/-desinformationen in bestehende Gemeinschaftsstandards oder AGBs?​ Ja​

 

(«Gefährliche
Gesundheitsfehlinformationen«)​

Nein ​

 

(nur COVID-19 & Krise)​

Nein

(nur COVID-19 & Impfung; Heilmittel als Sub-Kategorie)​

Teilweise

 

(»medizinische Fehlinformation«)​

Nein​
Spezifische Regel zur Monetarisierung von Gesundheitsfehl-/-desinformationen? Ja ​

(«Irreführende medizinische
Informationen«)​

Nein ​ Ja Nein ​

(nur COVID-19 & Impfung)

Nein​
Transparente und umfassende Daten über das Vorkommen und die Art von Gesundheitsfehl-/-desinformationen auf Systemen?​ Nein​ Nein 

 

(nur COVID-19)

Nein​ Nein​ Nein​
Transparente und umfassende Daten zur Durchsetzung von Faktenprüfung- und/oder Prozessen der Inhalte-Moderation für Gesundheitsfehl-/-desinformationen? Nein​ Nein​ Nein​ Nein​ Nein​
Transparente Maßnahmen für Konten, die wiederholt gegen die Gemeinschaftsstandards oder AGBs für Gesundheitsfehl-/-desinformationen verstoßen?​ Teilweise Nein

 ​
(Punktesystem für COVID-19)​

Ja


(Warnstufen)​

Teilweise​

 

(Kündigungen/Sperrungen)

Nein​

Abbildung 2: Analyse der Berücksichtigung von Gesundheitsfehl-/-desinformationen

Bereits ein Blick auf die Gemeinschaftsstandards der sehr großen Online-Plattformen zeigt, dass recht unterschiedliche Auffassungen von Gesundheitsfehlinformationen unter ihnen existieren (siehe Abb. 2): Facebook begreift unter »Gefährliche[n] Gesundheitsfehlinformationen« beispielsweise solche, »die unmittelbar zu einer drohenden Gefährdung der öffentlichen Gesundheit und Sicherheit beitragen können«. TikTok bezieht sich hingegen nur auf »medizinische Fehlinformationen, die der physischen Gesundheit Einzelner schaden können«. Und YouTube führt einzig »medizinische Fehlinformationen über COVID-19« und »Fehlinformationen über Impfungen« gesondert auf. Telegram und andere alternative Plattformen weisen dagegen überhaupt keine Richtlinien aus. Damit bleiben Fehlinformationen zu anderen Krankheiten als COVID-19 sowie Risiken für die öffentliche Gesundheit und Sicherheit immer wieder (gänzlich) unberücksichtigt oder fallen stattdessen – wenn überhaupt – in den Bereich der Fehlinformationen, deren Verbreitung lediglich eingeschränkt werden soll, sofern sie durch die Faktenprüfung identifiziert werden können.

Bei der Frage danach, was letztlich als unzulässige Fehlinformationen eingestuft wird, verweisen die Online-Plattformen gewöhnlich auf die Zusammenarbeit mit externen Wissenschaftler:innen, Organisationen wie die WHO und nationale/lokale Gesundheitsbehörden.

Bei der 5. Virtual WHO Infodemic Management Conference im November 2021 kamen aber auch die teilnehmenden Expert:innen zum Schluss, dass eine Reihe standardisierter Definitionen und Metriken erforderlich sei, um das Phänomen »Infodemie« messen und bewältigen zu können – darunter Fehl- und Desinformationen. Nach wie vor ist außerdem umstritten, ob falsche oder irreführende Inhalte auf Grundlage eines Konsenses unter Fachleuten oder der besten verfügbaren Erkenntnisse bestimmt werden sollten (Vraga & Bode, 2020). Außerdem ist weiterhin fraglich, wie mit überholten Informationen umgegangen werden soll.

Diese definitorischen Fragen müssen dringend beantwortet werden, indem eine gemeinsame internationale Standarddefinition in die Gemeinschaftsstandards der Online-Plattformen übernommen wird. Folgende Kriterien für Gesundheitsfehl- und -desinformationen können eine Diskussionsgrundlage darstellen: 1) Widerspruch zu den besten verfügbaren Erkenntnissen anhand grundlegender Bewertungskriterien; 2) Einbezug sämtlicher Krankheiten, insbesondere auch von Krankheiten wie Ebola, Hepatitis B und C, HIV/AIDS, Krebs, Malaria und Tuberkulose; 3) Betrachtung der Gefährdung der individuellen und öffentlichen Gesundheit und Sicherheit.

  1. Weltweite Regeldurchsetzung und Transparenz einfordern

Neben der Etablierung einer internationalen Standarddefinition ist es dringend erforderlich, dass die Gemeinschaftsstandards der Online-Plattformen weltweit angewandt und effektiv durchgesetzt werden. Fast alle sehr großen Online-Plattformen versprechen zwar, ihre Standards weltweit anzuwenden. Dennoch existieren nach wie vor erhebliche Sprach- und Durchsetzungsdefizite. Dies betrifft sowohl die Richtlinien zur Entfernung von Gesundheitsfehl- und -desinformationen, als auch die Kennzeichnung mit Warnhinweisen.

Mit dem Digital Services Act (DSA) will die Europäische Union (EU) das Problem der Anwendung und Durchsetzung angehen. So verlangt das im Juli 2022 verabschiedete Gesetz von allen Vermittlungsdiensten einschließlich der Online-Plattformen, dass sie die in ihren Gemeinschaftsstandards genannten Beschränkungen sorgfältig, objektiv und verhältnismäßig anwenden und durchsetzen. Diese Verpflichtung gilt jedoch nur für Dienste, die innerhalb der EU angeboten werden. Daher ist es dringend erforderlich, entsprechende Verpflichtungen zur Durchsetzung und Anwendung von Gemeinschaftsstandards auch in Staaten außerhalb der EU – insbesondere in nicht-englischsprachigen Regionen – einzuführen.

Daneben sollten außerdem weitreichende systemische Verpflichtungen für sehr große Online-Plattformen nach Vorbild des DSA diskutiert und eingeführt werden.

Dazu gehört erstens die verpflichtende Durchführung regelmäßiger Risikobewertungen zu nachteiligen Auswirkungen der Plattformsysteme auf die öffentliche Gesundheit und Sicherheit. Zweitens sollten – basierend auf den Risikobewertungen – angemessene, verhältnismäßige und wirksame Maßnahmen zur Minderung der Auswirkungen insbesondere während Gesundheitskrisen ergriffen werden müssen. Dies kann zum Beispiel die Anpassung des Plattformdesigns, der Richtlinien zu Gesundheitsfehl- und -desinformationen oder auch der Moderationsprozesse betreffen. Drittens sollten sehr große Online-Plattformen vertrauenswürdigen Forschenden (Echtzeit-)Zugang zu lizenzfreien Plattformdaten über öffentliche Inhalte, die Beteiligung von Nutzer:innen und die Kennzeichnung mit Warnhinweisen geben müssen, um Gesundheitsfehl- und -desinformationen sowie Minderungsmaßnahmen angemessen untersuchen zu können. Bei der Einrichtung der Datenzugänge sollten auch rechtliche und ethische Fragen geklärt werden, um einen Datenmissbrauch zu verhindern. Dies bedeutet, dass die bestimmten Zugangsanforderungen unter Einbezug der Beteiligten näher definiert werden müssen. Basierend auf einem ausgeweiteten Datenzugang sollten schließlich sprach-, themen- und plattformübergreifende öffentliche Datenbanken weiterentwickelt werden, um die gemeinsame Analyse der digitalen Gefahren zu erleichtern und aktuelle Trends und Umgehungstaktiken der Desinformationsakteur:innen besser zu erfassen.

Bei der Implementierung genannter Verpflichtungen sollten Staaten darauf achten, staatsferne organisatorische Koordinierungsstrukturen aufzubauen, um die Regeleinhaltung beaufsichtigen zu können. Dafür sollte auf bestehende Expertise zurückgegriffen, notwendige neue Ressourcen aufgebaut sowie der Informationsaustausch der durchsetzenden Stellen vorangetrieben werden. Dies ist wichtig, um Doppelstrukturen zu vermeiden und eine effektive Regeldurchsetzung gegenüber Online-Plattformen voranzubringen.

  1. Gesundheitsforschung und -kommunikation weiterentwickeln

Um die Auswirkungen von Gesundheitsfehl- und -desinformationen unter Kontrolle zu bringen, wird auch eine weitreichende (systemische) Plattformregulierung nicht ausreichend sein. Vielmehr wird die erfolgreiche Bekämpfung insbesondere davon abhängen, inwiefern es gelingt, die Wehrhaftigkeit der Gesellschaft insgesamt und der im Gesundheitsbereich agierende Menschen und Institutionen zu stärken. Dies betrifft die Gefahrenanalyse, die strategisch-kommunikativen Fähigkeiten und die Beratungs- und Präventionsarbeit.

Erstens existieren derzeit immer noch zu wenig quantitative Forschungsbefunde zum Zusammenhang zwischen Gesundheitsfehl- und -desinformationen und der Wirksamkeit von Gesundheitsmaßnahmen, gerade bei Krankheiten abseits von COVID-19 und im nicht-englischsprachigen Raum. Weitgehend unbeantwortete Forschungsfragen bleiben außerdem: Wie und unter welchen Bedingungen wirken sich falsche oder irreführende Inhalte konkret auf Überzeugungen, Verhaltensweisen und die Gesundheit selbst aus? Welche Funktion übernehmen Emotionen, Kognition, Bildungsstand und Identität bei der Rezeption von Gesundheitsfehl- und -desinformationen? Wie hoch sind die Kosten für die Gesellschaft, wenn sich Gesundheitsfehl- und -desinformationen weiterhin ohne große Hindernisse verbreiten? Insbesondere sollten randomisierte Kontrollstudien zu Plattformmaßnahmen verstärkt durchgeführt werden – beispielsweise dazu, wie Informationen präsentiert und der Öffentlichkeit sachliches Gesundheitswissen und Vertrauen vermittelt werden kann.

Um diese Forschungsfragen zu untersuchen, ist eine langfristige und verlässliche staatliche wie nichtstaatliche Förderung erforderlich. Dabei geht es auch darum, die rechtlichen Rahmenbedingungen staatlicher Förderungen und die damit verbundene nachhaltige Absicherung von Fördermaßnahmen zu verbessern.

Zweitens ist die öffentliche Gesundheitskommunikation nach wie vor nicht ausreichend entwickelt, um schnell und strategisch auf die Vielzahl und Vielschichtigkeit von Desinformationen zu reagieren. Daher ist es dringend erforderlich, neue Strategien des Community-Engagements zu entwickeln und strategisch-kommunikative Fähigkeiten – insbesondere der Zusammenarbeit mit Multiplikator:innen im Gesundheitsbereich – aufzubauen.

Um potenziell gefährdete Gesundheitsdiskurse zu besetzen, bevor sie von Akteur:innen wie RT DE unterwandert sind, ist vor allem der Ausbau des sogenannten Prebunking ratsam, also der Vorabentschärfung von Gesundheitsfehl- und -desinformationen durch gezielte faktenbasierte Informationen. Dies sollte in Ergänzung zum Debunking, der Überprüfung des Wahrheitsgehaltes nach der Veröffentlichung (z. B. Warnhinweis), geschehen.

Einen Beitrag zum Aufbau dieser Fähigkeiten können Counter-Desinformationstrainings für Kommunikationsverantwortliche sowie die Erarbeitung von Leitfäden zum Umgang mit Gesundheitsfehl- und-desinformationen leisten. Zusätzlich ist es wichtig, Betroffene von Desinformationen und Hassrede für digitale Gefahren zu sensibilisieren.

Außerdem werden mehr psychologische und juristische Beratungsangebote benötigt. Schließlich sollte auch die Verfolgung potenziell rechtswidriger Desinformationen verbessert und eine grundrechtschonende Identifizierung von Desinformationsakteur:innen online ermöglicht werden. Möglichkeiten für Betroffene, gerichtlich gegen anonyme Accounts vorzugehen, die potenziell strafbare Inhalte verbreiten, sollten diskutiert und entwickelt werden.

Drittens werden mehr niedrigschwellige und kostenlose Bildungsprogramme in den Kompetenzbereichen Medien, Wissenschaft, Digitales, Daten und Gesundheit über alle Altersklassen und Bevölkerungssegmente hinweg benötigt.

Bildung im Bereich der digitalen Bürgerkultur ist ein wesentlicher Faktor, um die Anziehungskraft und die Auswirkungen von Fehl- und Desinformationen zu untergraben und die »Wir-gegen-die«-Dynamik, die insbesondere im Kontext von COVID-19 beobachtet werden konnte, an der Wurzel zu bekämpfen. Bürger:innen müssen mit den Fähigkeiten und Tools ausgestattet werden, sich verantwortungsvoll und sicher online bewegen zu können.

Kompetenzaufbau kann einen wichtigen Beitrag dazu leisten, den digitalen Debattenraum nicht demokratiefeindlichen Akteur:innen zu überlassen. Zentraler Aspekt ist hierbei das Praktizieren von Gegenrede, damit Gesundheitsfehl- und -desinformationen nicht unkommentiert stehen bleiben und sich in den Köpfen der Nutzer:innen verfestigen. Gegenrede kann unter Umständen aber auch zur Steigerung der Reichweite problematischer Beiträge führen. Deswegen sollten Bildungsprogramme insbesondere über die Verbreitung von Fehl- und Desinformationen sowie unterschiedliche Gegenrede-Strategien aufklären.

Ausblick: Whole-of-Society-Approach

Obwohl die Maßnahmen gegen Gesundheitsfehl- und -desinformationen im Zuge der COVID-19-Pandemie ausgeweitet wurden, verbreiten sie sich nach wie vor massenhaft. Mittlerweile haben Gesundheitsfehl- und -desinformationen und Verschwörungserzählungen Einzug in den Mainstream erhalten und normalisieren sich dort immer weiter. Dies hat drastische Auswirkungen auf die Globale Gesundheit, selbst wenn diese in ihrem konkreten Ausmaß (u. a. Verhaltensänderungen, Kosten) noch weiter erforscht werden müssen.

Zwar ist davon auszugehen, dass eine weitgehende Plattformregulierung mit einer starken Aufsicht einen wichtigen Beitrag zur Bekämpfung von Gesundheitsfehl- und -desinformationen leisten kann. Dennoch ist ein von den Regierungen initiierter und langfristig angelegter Whole-of-Society-Approach erforderlich, um der Herausforderung einer zunehmenden Verzahnung von Netzwerken, ihren Erzählungen und ihrer Anpassungsfähigkeit zu begegnen.

Dies erfordert eine konstruktive und strukturierte Diskussion mit Industrieverbänden aus dem Digital- und Gesundheitssektor, den Gesundheitsmedien und Faktenprüfer:innen, der Gesundheits- und Digitalforschung, Bildungsverbänden sowie der Zivilgesellschaft über ein gemeinsames Verständnis der Bedrohung. Dazu gehört auch der Austausch über best practices in unterschiedlichen Handlungsfeldern (u. a. Forschung, strategische Kommunikation, Medien- und Informationskompetenz) sowie die Entwicklung gemeinsamer Handlungsstrategien und Leitfäden. Letztere sollten das Ziel verfolgen, die Kräfte der Beteiligten zur Bekämpfung von Gesundheitsfehl- und -desinformationen bestmöglich zu bündeln.

Dabei sollte der internationale Austausch sowie die Vernetzung mit relevanten Menschen und Institutionen, die gegen Fehl- und Desinformationen in anderen polarisierenden Themenbereichen vorgehen, vorangetrieben werden.

False and unverified claims proliferate online following Trump assassination attempt

Unverified claims about the attempted assassination of former President Donald Trump proliferated across social media in the 24 hours following the incident and continue to spread in the absence of more detailed factual information about the shooter. ISD identified the main false claims being promoted and how they mutated and spread across platforms.