Deutsche Redaktion

„Algorithmen: Neutral statt kontrolliert“

10.12.2024 09:33
In dieser Folge begrüßen wir Professor Miguel Maduro, einen angesehenen portugiesischen Wissenschaftler, Juristen und Politiker. Professor Maduro hat zahlreiche bedeutende Positionen bekleidet, darunter die des portugiesischen Ministers für regionale Entwicklung und, in jüngerer Zeit, die des Geschäftsführers der European Digital Media Observatory (EDMO).
Audio
Prof. Miguel Maduro, Jurist und Politiker.
Prof. Miguel Maduro, Jurist und Politiker.Joachim Ciecierski

EDMO spielt eine entscheidende Rolle im Kampf gegen Desinformation im Internet, und in diesem Gespräch beleuchten wir dessen Mission und Einfluss. Wir werden auch zentrale Strategien zur Bekämpfung von Desinformation erörtern, von der Stärkung der Wissensbasis bis hin zur Regulierungsmacht großer Tech-Konzerne. 


Joachim Ciecierski (JC) 

Mein Gast ist Professor Miguel Maduro, ein portugiesischer Akademiker, Jurist und Politiker. Er war portugiesischer Minister für regionale Entwicklung und bis vor Kurzem Vorsitzender des Exekutivvorstands der European Digital Media Observatory (EDMO). Habe ich Sie korrekt vorgestellt?

Prof. Miguel Maduro (MM) 

Ja, danke. Ich sollte jedoch hinzufügen, dass meine Verantwortlichkeiten als Minister über die regionale Entwicklung hinausgingen – sie umfassten auch die Medien. Meine Beschäftigung mit diesen Themen ergibt sich sowohl aus meinem juristischen Hintergrund als auch aus meiner politischen Arbeit. Und wie Sie erwähnt haben, war ich bis vor Kurzem Vorsitzender des Exekutivvorstands von EDMO. 

JC: 

Lassen Sie uns mit der European Digital Media Observatory beginnen. Könnten Sie kurz erklären, was EDMO ist und welche Ziele es verfolgt? 

MM: 

Natürlich. Es ist wichtig, zunächst zu verstehen, warum Desinformation im digitalen Zeitalter zu einem so kritischen Thema geworden ist. Die digitale Transformation hat die Herausforderungen im Zusammenhang mit Desinformation in mehrfacher Hinsicht verstärkt.

Zunächst einmal gibt es die Dimension und Geschwindigkeit, mit der Desinformation heute verbreitet wird. In früheren Zeiten, etwa vor der Erfindung des Buchdrucks, wurde Information viel langsamer weitergegeben. Der Buchdruck brachte eine revolutionäre Veränderung und führte dazu, dass Informationen – einschließlich Falschinformationen – exponentiell schneller und weiter verbreitet werden konnten. Das digitale Zeitalter hat dies noch weiter verstärkt und ermöglicht die sofortige globale Verbreitung sowohl korrekter als auch irreführender Informationen.

Zweitens haben digitale Werkzeuge die Glaubwürdigkeit und Komplexität von Desinformation erhöht. Techniken wie Deepfakes, bei denen das Aussehen und die Stimme einer Person überzeugend nachgeahmt werden können, erschweren die Unterscheidung zwischen authentischen und manipulierten Inhalten.

Ein weiteres Problem ist die Verwechslung von Informationszugang und Fachwissen. Viele Menschen glauben, dass der Zugang zu einer großen Menge an Informationen im Internet gleichbedeutend mit dem Wissen von Experten ist. Dadurch wurden traditionelle Vermittler – wie Journalisten und Redakteure – untergraben, die Informationen validierten und in zuverlässiges Wissen umwandelten.

Schließlich gibt es das Phänomen der Informationskaskaden, wie es von Verhaltenswissenschaftlern beschrieben wird. Soziale Netzwerke machen es einfach, künstliche Glaubwürdigkeit für falsche Informationen zu schaffen. Beispielsweise können Bots oder gefälschte Accounts Inhalte verstärken, sodass es den Anschein hat, als würden Tausende von Menschen sie unterstützen. Dies führt dazu, dass andere die Informationen eher für glaubwürdig halten, einfach weil sie scheinbar weit verbreitet sind.

EDMO wurde gegründet, um diese Herausforderungen anzugehen. Seine Mission ist es, Forscher, Faktenprüfer, Experten für Medienkompetenz und andere Akteure zusammenzubringen, um zusammenzuarbeiten, Wissen zu teilen und gemeinsame Strategien zur Bekämpfung von Desinformation zu entwickeln. 

JC: 

Sie haben Wissen und die Notwendigkeit, Wissenslücken zu schließen, angesprochen. Sie haben einmal gesagt, dass zur Bekämpfung von Desinformation im Internet sowohl die Wissensbasis als auch die Aktivitäten an der Basis gestärkt werden müssen. Könnten Sie erklären, was das in der Praxis bedeutet und wie dies erreicht werden kann? 

MM: 

Ja. Zunächst denke ich, dass wir die redaktionellen Prozesse wiederherstellen müssen, die als Schutzmechanismus gegen Desinformation dienen.

Ich erkläre das oft anhand einer berühmten Kurzgeschichte von Jorge Luis Borges. In der Geschichte gibt es einen Charakter namens Herr Funes, der in seinem Dorf für sein unendliches Gedächtnis bekannt ist – er erinnert sich an alles. Doch trotz seines enormen Gedächtnisses kann er die Informationen nicht sinnvoll nutzen oder verstehen. Die schiere Menge an Informationen überwältigt ihn, sodass er nicht in der Lage ist, sie in Wissen, Ideen oder Handlungen umzuwandeln.

Ähnlich ergeht es uns, wenn wir mit zu vielen Informationen konfrontiert werden. Um diese Informationen zu verstehen und in politische Präferenzen oder gesellschaftliche Initiativen umzusetzen, verlassen wir uns auf bestimmte kognitive Annahmen. Dazu gehört unsere Fähigkeit, Informationen zu verarbeiten, Gedanken zu formen und Ideen oder politische Maßnahmen zu entwickeln, die wir in der Öffentlichkeit diskutieren und verteidigen können.

Darüber hinaus gibt es epistemische Annahmen – Mechanismen, die uns helfen, Wahrheit von Falschheit zu unterscheiden. Ohne diese Mechanismen sind wir nicht in der Lage, effektiv zu erkennen, was wahr ist, selbst wenn wir uns über die Kriterien uneinig sind. Traditionell haben wir uns dabei auf Experten, Journalisten und andere Vermittler verlassen.

Doch das digitale Zeitalter hat diese Mechanismen gestört. Das Vertrauen, das wir in traditionelle Systeme gesetzt haben, wurde untergraben, und nun stehen wir vor der Herausforderung, diese Mechanismen im digitalen Raum neu aufzubauen.

Dazu sind nicht nur institutionelle Veränderungen notwendig, sondern auch individuelle Bewusstseinsbildung. Menschen müssen eine kritische Haltung gegenüber den Informationen entwickeln, die sie konsumieren – sowohl online als auch offline. Es geht nicht darum, alles als Desinformation abzutun oder vorzugeben, was wahr oder falsch ist. Vielmehr geht es darum, ein Bewusstsein für die Risiken zu schaffen, die durch Desinformation entstehen, und eine kritische Denkweise zu fördern.

Wenn Menschen auf Informationen stoßen, sollten sie sich folgende Fragen stellen: Was ist die Quelle dieser Information? Ist sie vertrauenswürdig? Wenn etwas zu gut erscheint, um wahr zu sein, oder zu schockierend, um glaubwürdig zu sein, habe ich es mit einer originalen oder zuverlässigen Quelle überprüft?

Diese Art des kritischen Denkens ist essenziell. Individuen müssen ihre eigenen Mechanismen entwickeln, um Glaubwürdigkeit und Vertrauenswürdigkeit zu bewerten, anstatt sich ausschließlich auf externe Vorgaben zu verlassen. 

JC: 

Das klingt ziemlich kompliziert, wenn man bedenkt, dass es nur darum geht, Artikel zu lesen. Plötzlich geht es nicht mehr nur um das Lesen, sondern auch darum, zu hinterfragen: „Ist das wahr oder falsch?“ Ich persönlich mag traditionelle Zeitungen sehr. Oft, wenn ich zum Mittagessen gehe, schlage ich eine Zeitung auf, und ich scheine der Einzige zu sein, der das heutzutage tut.

Was ich an Zeitungen schätze, ist die Ausgewogenheit. Die Titelseite hebt die wichtigsten Nachrichten hervor und führt mich durch die Weltereignisse. Ich vertraue Zeitungen, weil es dort einen redaktionellen Prozess gibt – ein System von Kontrollen und Überprüfungen. Redakteure prüfen die Artikel und sorgen für Zuverlässigkeit. Dieses Vertrauen in den Journalismus gibt mir Sicherheit.

Wenn ich jedoch soziale Medien öffne, fällt diese Struktur komplett auseinander. 

MM: 

Genau. Was Sie beschreiben, ist der redaktionelle Prozess, den der traditionelle Journalismus bereitgestellt hat. Die Menschen vertrauten Journalisten, um die öffentliche Diskussion zu kuratieren und zu bearbeiten, wichtige Themen auszuwählen und ausgewogene Perspektiven zu präsentieren.

Die Titelseite einer Zeitung diente als Leitfaden für die wichtigsten Themen des Tages. Die Artikel boten ausgewogene Standpunkte, sodass Leser ihre eigenen Meinungen bilden konnten, im Vertrauen darauf, dass die Informationen und die zugrunde liegenden Fakten korrekt waren. Dies war die redaktionelle Rolle des Journalismus.

Heute, wenn Menschen zu sozialen Netzwerken wechseln, geben sie diesen redaktionellen Prozess nicht auf – sie verlagern ihn lediglich. Anstatt Journalisten zu vertrauen, vertrauen sie den Algorithmen und Entscheidungen sozialer Netzwerke.

Wenn eine Plattform beispielsweise entscheidet, welche Beiträge oder Tweets sichtbar sind, erstellt sie im Grunde eine Art Titelseite für den Nutzer. Wenn bestimmte Ansichten verstärkt und andere unterdrückt werden, beeinflusst dies unser Verständnis eines Themas. Indem bestimmten Beiträgen Sichtbarkeit verliehen wird, wird ihnen Glaubwürdigkeit zugeschrieben, und wir neigen dazu, das Gelesene für wahr zu halten.

Die entscheidende Frage ist, ob wir diesen neuen redaktionellen Prozessen genauso vertrauen können wie dem traditionellen Journalismus. Indem wir Informationen über soziale Medien konsumieren, delegieren wir die Überprüfung der Glaubwürdigkeit an diese Plattformen. Die eigentliche Frage ist, ob sie diese Rolle ebenso zuverlässig erfüllen können wie der traditionelle Journalismus.

Das ist es, worüber die Menschen nachdenken sollten, wenn sie entscheiden, wie und wo sie Informationen konsumieren. 

JC: 

Heutzutage haben wir die redaktionellen Prozesse praktisch dem reichsten Mann der Welt, Elon Musk, überlassen. Für diejenigen, die X nutzen – und das sind viele – ist das die Realität. 

MM: 

Das ist die Situation, und genau darin liegt die Herausforderung.
Zum Teil ergibt sich dieses Problem aus einer Verantwortung, die der traditionelle Journalismus und die klassischen Medien nicht mehr erfüllen. Viele Bürger haben ihr Vertrauen in sie verloren. Wenn die Menschen beginnen, traditionelle Medien als voreingenommen oder unehrlich wahrzunehmen, fällt es ihnen leichter, sozialen Medien zu vertrauen. Alles scheint dann dieselbe Glaubwürdigkeit zu haben.

Wenn die Qualität der redaktionellen Arbeit und der Verifizierungsprozesse gleichwertig erscheint, entscheiden sich viele für Plattformen, die leichter zugänglich und unterhaltsamer sind. Soziale Netzwerke nutzen unser auf Dopamin ausgerichtetes Gehirn, um Emotionen und Gewohnheiten zu verstärken – besonders bei schockierenden oder schlechten Nachrichten.

Die Verhaltensforschung zeigt, dass Menschen durch Dopamin angetrieben werden. Jedes Mal, wenn wir etwas Schockierendes erleben, das eine emotionale Reaktion auslöst, erhält unser Gehirn einen Dopamin-Schub. Das macht süchtig, und wir wollen immer mehr davon. Dieser Kreislauf erklärt den Erfolg von Clickbait.

Ich nenne das den „Moskito-Effekt“. So wie wir wissen, dass wir einen Mückenstich nicht kratzen sollten, es aber trotzdem tun, ist es mit emotional aufgeladenen Inhalten ähnlich. Wir fühlen uns davon angezogen, selbst wenn wir sie nicht mögen. Diese Dynamik schafft Anreize für immer emotionalere Nachrichten und schockierende Beiträge, Tweets oder Stories.

Die entscheidende Frage ist, wie wir redaktionelle Prozesse von hoher Qualität in sozialen Netzwerken und Medien einführen können, die den Nutzern ein gewisses Vertrauen in das Gezeigte und Gelesene ermöglichen.

Ein Beispiel dafür ist die Transparenz von Algorithmen. Wir sollten wissen, wie sie funktionieren und nach welchen Kriterien sie operieren. Aktuelle Studien behaupten, dass Elon Musk den Algorithmus von X so geändert habe, dass republikanischen Stimmen, seinen eigenen Tweets und damit verbundenen Inhalten während des US-Präsidentschaftswahlkampfs mehr Sichtbarkeit gegeben wurde, während Inhalte der Demokraten benachteiligt wurden.

Ob diese Behauptungen stimmen oder nicht – es ist klar, dass Änderungen an Algorithmen transparent gemacht werden sollten. Ähnliche Vorwürfe gibt es auch gegen Google, das angeblich demokratisch ausgerichtete Suchergebnisse bevorzugt. Auch hier ist Transparenz der einzige Weg, um solche Vorwürfe zu überprüfen oder zu widerlegen.

Ich plädiere seit Langem dafür, den Zugang zu Algorithmen zu öffnen. Nutzer sozialer Medien sollten zwischen konkurrierenden Algorithmen wählen können. Zum Beispiel könnte jemand einen Algorithmus bevorzugen, der von der New York Times zusammen mit anderen Journalisten entwickelt wurde. Wenn Nutzer einem solchen Algorithmus mehr vertrauen, sollten sie ihn für ihren Social-Media-Feed auswählen können.

Aus Sicht der öffentlichen Politik bin ich der Meinung, dass die Europäische Union und die Vereinigten Staaten dies vorschreiben sollten. Soziale Medien dominieren die öffentliche Sphäre und fungieren als das, was das Wettbewerbsrecht „unverzichtbare Einrichtungen“ nennt. Wenn ein Dienst essenziell für den Zugang zu bestimmten Gütern oder Informationen wird, muss er auch für Wettbewerber zugänglich sein, um Wettbewerb zu fördern. In diesem Fall würde Wettbewerb Pluralismus in der Information und in redaktionellen Prozessen bedeuten.

Ich denke nicht, dass der Staat vorgeben sollte, was die Menschen in sozialen Medien lesen dürfen oder nicht. Die Förderung von Pluralismus und der Kampf gegen Desinformation sollten eher wie im traditionellen Journalismus gestaltet sein, wo die Menschen zwischen Zeitungen mit unterschiedlichen redaktionellen Ausrichtungen wählen konnten.

Soziale Medien sollten ein ähnliches Modell übernehmen. Nutzer von X sollten zwischen verschiedenen Kuratoren oder redaktionellen Prozessen für ihre Inhalte wählen können. 

JC: 

Wenn Sie das mit Elon Musk diskutieren würden, würde er wahrscheinlich behaupten, dass die EU mit ihren Versuchen, den digitalen Raum zu regulieren, Zensur betreibt. Er könnte sogar Figuren wie J.D. Vance zitieren, die argumentieren, dass solche Regulierungen die amerikanischen Werte, einschließlich der Redefreiheit, untergraben. 

MM: 

Das Problem mit Herrn Musks Aussage ist nicht die Verteidigung der Meinungsfreiheit in sozialen Medien, sondern die Tatsache, dass er selbst Zensur auf seiner Plattform betreibt. Genau das macht sein Algorithmus. Wir wissen zum Beispiel, dass er viele Konten gesperrt hat, mit denen er nicht einverstanden ist.

Wenn die jüngsten Studien zutreffen, hat Musk angeblich den Algorithmus so geändert, dass bestimmte Stimmen oder Konten bevorzugt werden, während andere benachteiligt werden. Was ist das anderes als Zensur? Indem er die Sichtbarkeit bestimmter Stimmen reduziert und andere verstärkt, bringt er bestimmte Perspektiven effektiv zum Schweigen.

Beispielsweise wissen wir dank des Transparenzportals der EU, dass soziale Medienplattformen, einschließlich X, allein in den letzten sechs Monaten über 3 Milliarden Entscheidungen getroffen haben, um Inhalte zu entfernen oder Konten zu sperren. Das bedeutet, dass sie täglich die Redefreiheit regulieren. Wenn wir diese Regulierung als Zensur bezeichnen, dann betreiben diese Plattformen kontinuierlich Zensur.

Ich stimme Herrn Musk zu, dass der Staat sich nicht einmischen sollte, außer in extremen Fällen wie der Anstiftung zu Gewalt, bei der bestehende Gesetze gelten. Wenn es in gedruckten Medien nicht akzeptabel ist, zu Gewalt aufzurufen, sollte dies auch in sozialen Medien nicht akzeptabel sein. Doch abgesehen von solchen Ausnahmen ist die Moderation von Inhalten—das Festlegen, welche Stimmen verstärkt oder unterdrückt werden—eine komplexe Angelegenheit.

Die zentrale Frage ist: Wer entscheidet, was wahr oder falsch ist, und wer reguliert Inhalte? Es sollte weder der Staat noch allein Personen wie Musk oder andere mit quasi-monopolistischer Macht sein.

Deshalb plädiere ich für Wahlfreiheit der Nutzer. Menschen sollten nicht auf einen einzigen „Herausgeber“ angewiesen sein, sei es der Staat oder Elon Musk. Stattdessen sollten sie aus verschiedenen redaktionellen Rahmenbedingungen oder Algorithmen wählen können, ähnlich wie sie früher zwischen Zeitungen oder Fernsehsendern wählen konnten. 

JC: 

Derzeit haben wir eine Situation, in der der reichste Mann der Welt und einflussreiche politische Persönlichkeiten wie Donald Trump enormen Einfluss auf Plattformen wie X haben. Es fühlt sich an wie ein dystopisches Szenario aus Kindheits-Cartoons, in denen ein Milliardär-Bösewicht die Welt kontrolliert. Mit Twitter scheinen wir uns in diese Richtung zu bewegen—eine Person hat enorme Macht über unsere Informationssphäre. Wohin führt das? Wie sieht die Zukunft für digitale Räume wie Twitter aus? 

MM: 

Wenn jemand—sei es eine staatliche Behörde oder eine Privatperson—die Kontrolle über Informationen hat und bestimmt, was Menschen sehen oder nicht sehen können, ist das das Gegenteil von Demokratie. Demokratie erfordert Pluralismus—von Meinungen, Quellen und redaktionellen Prozessen.

Um diesen Trend zu bekämpfen, müssen wir soziale Medienplattformen dazu zwingen, ihre Algorithmen zu öffnen. Nutzer sollten Algorithmen auswählen können, die von verschiedenen Unternehmen oder Redakteuren entwickelt wurden, ähnlich wie sie früher zwischen Zeitungen oder Fernsehsendern wählen konnten.

Eine weitere mögliche Lösung ist das Entstehen alternativer sozialer Netzwerke. Doch ich sehe hier zwei Risiken. Erstens ist die dominierende Position bestehender Plattformen so stark, dass es diesen Alternativen schwerfallen wird, eine relevante Größe oder Wirkung zu erreichen. Zweitens könnten solche Alternativen zu einer Fragmentierung führen, bei der Gemeinschaften isoliert werden—zum Beispiel Demokraten auf einer Plattform und Republikaner auf einer anderen. Das würde die gemeinsame öffentliche Sphäre, die Demokratie benötigt, untergraben.

Die beste Lösung ist aus meiner Sicht, algorithmische Transparenz durchzusetzen und sicherzustellen, dass Nutzer zwischen verschiedenen redaktionellen Prozessen innerhalb der großen Plattformen wählen können. Dies würde Pluralismus bewahren, ohne isolierte Echokammern zu schaffen.

Ein weiteres Problem ist die überwältigende Flut von Informationen und Desinformationen, die es immer schwieriger macht, Wahrheit von Fälschung zu unterscheiden. Wenn Desinformationen sich verbreiten, verlieren Menschen zunehmend die Fähigkeit, einer Quelle zu vertrauen. Am Ende wird alles gleichzeitig wahr und falsch—ein gefährlicher Zustand für die Demokratie.

Dieses Problem wird durch die emotionale Natur der öffentlichen Meinung noch verschärft. Sobald Menschen sich emotional an eine Erzählung binden, sind sie eher geneigt, Informationen zu akzeptieren, die diese bestätigen, und alles abzulehnen, was sie infrage stellt. Die Verhaltenswissenschaft nennt dies Bestätigungsfehler. Dieser emotionale Rückhalt schafft einen Kreislauf, in dem Desinformationen unkontrolliert verbreitet werden. 

JC: 

Wir müssen auch an die nächste Generation denken. Es ist wichtig, bereits in den frühen Bildungsjahren zu lehren, wie man Wahrheit von Falschheit unterscheidet. Medienkompetenz muss auf der Graswurzelebene beginnen, um Bürger auf die Herausforderungen des digitalen Zeitalters vorzubereiten. 

MM:

Ich denke, wir müssen damit beginnen, den Menschen einige Grundprinzipien der Demokratie beizubringen, damit sie politische Meinungen auf der Grundlage fundierter Annahmen bilden können – der kognitiven und epistemischen Annahmen, die ich zuvor erwähnt habe.

Wir unterrichten Kinder diese Konzepte nicht direkt, aber wir müssen betonen, dass es nicht dasselbe ist, über alles Informationen zu haben, wie tatsächlich Wissen darüber zu besitzen. Nur weil wir auf medizinische Zeitschriften und Informationen zu Medikamenten zugreifen können, bedeutet das nicht, dass wir Ärzte werden können, indem wir einfach googeln. Das ist nicht dasselbe.

Was wir brauchen, sind Kompetenzen – spezifische Fähigkeiten, die Zeit und Ausbildung benötigen, um Informationen in Wissen umzuwandeln.

Das ist der erste grundlegende Punkt.

Der zweite Punkt ist, dass wir einen Prozess benötigen, um zu bestimmen, welche Informationen wir vertrauen können und welche nicht. Wir brauchen eine Möglichkeit, Wahrheit von Falschheit zu unterscheiden, und dieser Prozess sollte sich auf die Herkunft der Informationen, die Glaubwürdigkeit der Quelle und deren Unabhängigkeit von dem, was kommuniziert wird, stützen.

Wir müssen auch wissen, welchen Überprüfungsprozessen die Informationen unterzogen wurden und ob wir den Personen vertrauen können, die diese Überprüfungen durchgeführt haben. Dies sind alles Dinge, die wir in Betracht ziehen müssen, und dies sind auch Dinge, die EDMO wahrscheinlich in den Kampagnen, die Sie organisieren, behandelt. 

JC: 

Es gibt 16 EDMO-Büros in der Europäischen Union, aber ich sehe keines in Polen. Das überrascht mich, da Polen besonders anfällig für russische Propaganda ist, aufgrund seiner Nähe zur Ukraine und Russland. Warum gibt es kein Büro in Polen? 

MM: 

Wir müssen eine Unterscheidung treffen. Die Europäische Union hat ein EU-weites EDMO geschaffen, das ich leite und das auf europäischer Ebene tätig ist. EDMO arbeitet, wie ich sagte, an verschiedenen Aspekten der Desinformation, einschließlich Medienkompetenzkampagnen, der Schulung von Menschen – insbesondere Kindern – zur Erkennung von Desinformation und der Zusammenarbeit mit Faktenprüfungsorganisationen.

Die Europäische Kommission hat jedoch, nicht EDMO selbst, nationale oder regionale Beobachtungsstellen eingerichtet. Diese regionalen Beobachtungsstellen decken mehr als ein Land ab, und es ist wahrscheinlich, dass Polen bald eine eigene Beobachtungsstelle haben wird. Die Europäische Kommission möchte alle Mitgliedstaaten abdecken, sodass es nur eine Frage der Zeit ist, bis auch Polen eingeschlossen wird. Diese regionalen und nationalen Beobachtungsstellen sind unabhängig, aber Teil der EDMO-Plattform und schaffen ein Ökosystem, das darauf abzielt, Desinformation zu bekämpfen. 

JC: 

Was sind einige der wichtigsten Erfolge von EDMO seit seiner Gründung vor vier Jahren? 

MM: 

EDMO hat von Anfang an eine aktive Rolle übernommen, insbesondere bei der Überwachung des Verhaltenskodex zur Bekämpfung von Desinformation. Ein Beispiel: EDMO hat Empfehlungen für Plattformen entwickelt, wie sie Informationen für Forscher und andere Interessengruppen zugänglicher machen können. EDMO hat sich für mehr Transparenz eingesetzt, damit die Menschen verstehen können, wie Plattformen mit Informationen umgehen, insbesondere in Bezug auf Desinformation.

Ein wichtiger Erfolg war die Zusammenarbeit zwischen nationalen Interessengruppen und Faktenprüfungsorganisationen, die zu gemeinsamen Projekten geführt hat, um Desinformation in bestimmten Bereichen zu überwachen. Ein besonders gutes Beispiel ist die Arbeit von EDMO im Hinblick auf den Krieg in der Ukraine, bei der eine Arbeitsgruppe mit Faktenprüfungsorganisationen und Forschern gebildet wurde, um Desinformationskampagnen zu überwachen. Diese Gruppen veröffentlichen regelmäßig Berichte über Desinformation, einschließlich der Identifizierung von Fake-Stories und der Verfolgung von Desinformationskampagnen in verschiedenen Ländern. 

JC:

Können Sie ein Beispiel für eine Desinformationskampagne geben, die Sie besonders erschüttert hat? 

MM: 

Es gibt viele Beispiele, aber eines, das mich besonders erschüttert hat, war nicht nur Desinformation, sondern ein Versuch, die Glaubwürdigkeit traditioneller Journalisten zu untergraben. Es ging um ein gefälschtes Video mit einer Audiomontage einer angeblichen Unterhaltung zwischen einer CNN-Journalistin und ihren Redakteuren. Das Video zeigte eine Journalistin in einer Kriegszone, angeblich in der Ukraine, und eine Audiospur wurde eingefügt, als ob die Journalistin ohne ihr Wissen aufgenommen wurde, während sie mit dem Redakteur darüber sprach, dass sie vorgaben, näher am Krieg und den Bombardierungen zu sein, als sie tatsächlich waren. Das Ziel des Videos war es, CNN zu diskreditieren, indem behauptet wurde, sie würden die Berichterstattung über den Krieg und die Bombardierungen fälschen. Es sollte den Eindruck erwecken, dass Journalisten vorgäben, in Gefahr zu sein, und übertreiben, wie sehr zivile Gebiete betroffen sind.

Dies war ein besonders erschütterndes Beispiel, weil es nicht nur eine Lüge verbreitete, sondern auch die Glaubwürdigkeit von Journalisten als Ganzes angreift, was eine sehr gefährliche Form der Desinformation darstellt. 

JC: 

War diese Kampagne von Russland organisiert? 

MM: 

Wir wissen es nicht genau, aber wir wissen, dass nach dem russischen Überfall auf die Ukraine Tausende neuer Twitter- (jetzt X) Konten auftauchten, die hauptsächlich offizielle russische Stellungnahmen retweeteten und liked. Diese Konten verstärkten russische Positionen, machten sie sichtbarer, und der Algorithmus beförderte sie, was eine Informationskaskade schuf. Dies ist eine typische Desinformationsstrategie, um bestimmte Narrative durch die Algorithmus-Optimierung sichtbarer und damit glaubwürdiger zu machen.

Der Einsatz von Fake-Konten zur Verbreitung russischer Positionen machte es so, als würden viele Menschen diese Aussagen unterstützen, was deren wahrgenommene Glaubwürdigkeit erhöhte. Dies ist ein Beispiel für eine Desinformationskampagne, die ein Staat durch den Einsatz von Fake-Konten fördern kann. 

JC: 

Wenn wir die Weltkarte betrachten, sehen wir die Vereinigten Staaten, wo Twitter eine Plattform für die Verbreitung von Desinformation ist. In der Mitte haben wir Europa, und im Osten befindet sich Russland, das Milliarden in diese Propaganda pumpt. Auf der rechten und linken Seite haben wir zwei große Mächte, die mit Desinformation und Fake News kämpfen. Und in der Mitte steht Europa, dessen Position nicht einfach ist. 

MM: 

Ich würde die Vereinigten Staaten nicht auf die gleiche Stufe wie Russland stellen. Die Zivilgesellschaft in den Vereinigten Staaten und die Regeln des Landes funktionieren unabhängig von uns. Die Menschen haben Bedenken hinsichtlich der Wahl einer Person wie Mr. Trump, der, um es milde auszudrücken, nicht viel Sympathie für demokratische Prozesse und die Rechtsstaatlichkeit gezeigt hat.

Unabhängig davon denke ich, dass die Vereinigten Staaten ausreichend widerstandsfähig sind, um der amerikanischen Demokratie zu vertrauen.

Es ist wahr, dass in den Vereinigten Staaten soziale Medien von privaten Unternehmern kontrolliert werden. Aber was mich nicht beunruhigt, ist, dass sie von privaten Unternehmern kontrolliert werden – sondern dass ein privater Unternehmer in einer Position ist, die der eines Staates ähnelt. Wenn eine Privatperson eine Plattform in ähnlicher Weise wie eine Regierung kontrolliert, schafft das meiner Ansicht nach einen enormen Interessenkonflikt.

Es ist ein systemischer Interessenkonflikt. Es ist nicht formell Teil der Regierung, um dem Bestätigungsprozess zu entgehen. Aber das könnte sogar schlimmer sein, denn wenn man Macht ähnlich wie eine Regierung ausübt, ohne den Checks and Balances unterworfen zu sein, die Regierungspersonen unterliegen, verschärft sich die Situation, nicht verbessert sich.

Es beseitigt nicht den Interessenkonflikt, mit dem Mr. Elon Musk konfrontiert ist. Wie gesagt, mein Anliegen ist nicht, dass soziale Medien in Privatbesitz sind. Ich würde misstrauisch sein, wenn es nur eine soziale Medienplattform gäbe, die den Informationsraum dominiert und vom Staat kontrolliert wird.

Was wir verstehen müssen, ist, dass es ebenso gefährlich ist, wenn unser öffentlicher Raum von einer einzigen Quelle kontrolliert wird—ob diese Quelle nun ein Staat ist oder eine Einzelperson, die ein privates Unternehmen kontrolliert. Beide sind gleichermaßen gefährlich, weil es bedeutet, dass die einzelne Entität entscheiden kann, was für uns gut oder schlecht ist, um es zu wissen. Und das ist es, was mir wirklich Sorgen bereitet. 

JC: 

Aber wenn sich das nicht ändert, gibt es noch Hoffnung. Wir sehen, dass einige Medienplattformen Twitter bereits verlassen, weil sie ihren Inhalt nicht mehr in dem Raum sehen, den Mr. Musk repräsentiert. Vielleicht wird Twitter sich selbst zerstören. Wer weiß? Das ist ein Risiko. 

MM:

Das ist durchaus eine Möglichkeit. Ich habe immer argumentiert, dass, wenn Twitter oder ein anderes soziales Medium eine dominierende Marktposition hat, es gezwungen werden sollte, Pluralismus innerhalb seiner Plattform zu bewahren—den Menschen die Wahl zu geben, zwischen verschiedenen Algorithmen zu wählen.

Eine Alternative, wie Sie es erwähnt haben, ist, dass die Menschen irgendwann von Twitter abwandern, wenn es zu voreingenommen wird und zu stark mit einer bestimmten politischen Ansicht und verzerrten Informationen in Verbindung gebracht wird. Aber das Risiko besteht darin, dass wohin sie auch gehen, die neue Plattform die dominante Informationsquelle werden könnte.

Wer auch immer sie kontrolliert—und den Algorithmus kontrolliert, der übrigens nicht vollständig transparent ist—könnte dann die Informationen kontrollieren. Wenn die Plattform von Mr. Elon Musk, X, immer voreingenommener wird, besteht das Risiko, dass die Menschen sie verlassen oder sie zur sozialen Medienplattform von Mr. Musks politischen Anhängern wird. Aber das Risiko bleibt, dass, wenn eine Alternative entsteht, auch diese dominant werden könnte und so ein neues Monopol auf Informationen schafft. 

JC:

Wie behalten Sie eine gesunde Denkweise und vermeidest, verrückt zu werden? 

MM: 

Das erste, was ich tue, und was ich auch anderen empfehle, ist, weiterhin traditionelle Medien und Journalismus zu lesen, da sie nach wie vor meine Hauptquelle für Informationen sind. Wann immer ich etwas auf Twitter sehe, das mich schockiert oder überrascht, prüfe ich, ob es von zuverlässigeren Quellen bestätigt wird, besonders von traditionellen Medien.

Das ist das erste, was ich tue. Wir sollten das alle tun. Egal, ob es Twitter, X oder eine andere soziale Medienplattform ist, ich bin kritisch gegenüber allem, was zu überraschend oder schockierend erscheint. Ich prüfe immer, ob es wahr ist, und oft finde ich, dass es nicht so ist—es ist entweder gefälscht oder eine Manipulation von Fakten. Das ist meine Empfehlung an die Bürger: Vertrauen Sie nicht nur einer sozialen Medienplattform.

Verbrauchen Sie keine Informationen nur von einer sozialen Medienquelle. Diversifizieren Sie Ihre Informationsquellen, schauen Sie weiterhin traditionelle Medien und Journalismus an und seien Sie immer kritisch gegenüber dem, was Sie lesen. Seien Sie misstrauisch gegenüber allem, was besonders schockierend oder überraschend erscheint. 

JC:

Verbrauchen Sie Informationen mit Bedacht und essen Sie gutes Essen. 

MM:

Ja, gutes Essen hilft wahrscheinlich, den Geist gesünder zu halten. Und das Wichtigste beim Essen ist die Qualität des Produkts. Es ist dasselbe mit Informationen—betrachten Sie immer den Ursprung der Quelle, ob beim Essen oder beim Konsum von Informationen. 

Joachim Ciecierski:

Mein Gast war Professor Miguel Maduro, Akademiker und Politiker, und kürzlich der CEO von EDMO, dem Europäischen Digitalen Medienobservatorium. Vielen Dank dafür. 

Miguel Maduro:

Danke.