zum Inhalt

Chaos auf den Sozialmedien-Plattformen nach Schießerei um Trump ist eine Sache ihrer eigenen Herstellung

Republikanischer Kandidat Donald Trump ist umringt von Geheimdienstagenten mit Blut auf dem Gesicht...
Republikanischer Kandidat Donald Trump ist umringt von Geheimdienstagenten mit Blut auf dem Gesicht zu sehen.

Chaos auf den Sozialmedien-Plattformen nach Schießerei um Trump ist eine Sache ihrer eigenen Herstellung

Das Reaktion könnte sich nicht anders unterschieden haben als im Jahr 2021, nachdem die letzte Begegnung des Landes mit politischer Gewalt. Das bedeutet nichts Gutes für die nahe liegende Wahl – oder ihre Folgen.

Drei Jahre zurück, haben Major-Online-Plattformen wie Meta, Twitter und YouTube schnelle Maßnahmen getroffen, um das Versuch auf die amerikanische Demokratie am 6. Januar anzugreifen zu verhindern, indem sie Tausende von Konten suspendiert haben, die Wahllügen befördert hatten, eine Pause auf Werbeanzeigen ausgesetzt und Posts entfernt haben, die das Attentat am US-Kapitol lobten, unter anderen Maßnahmen.

Im Gegensatz dazu haben social media-Plattformen in den letzten Tagen von falschen Behauptungen über das Versuch auf Trumps Leben überflutet, die sich von baslosen linken Spekulationen, wonach das Ereignis für Trumps politischen Vorteil gestellt worden sei, bis hin zu rechten Verschwörungstheorien, die falsch behaupteten, dass „tiefe Staatsagenten“ oder vielleicht Präsident Joe Biden selbst das Attentat organisiert hätten, organisiert hätten.

Das Ereignis war nicht gestellt. Das US-Geheimdienst beschrieb es als Versuch auf den Präsidenten, und das Bundesamt für Heimatsicherheit hat es als Sicherheitsversagen anerkannt. Ermittler suchen nach dem Motiv des Täters. Und Biden verurteilte politische Gewalt nach dem Anschlag, zusagte zu einer unabhängigen Untersuchung des Sicherheitslapses.

CEOs der Tech-Unternehmen haben Biden’s Bemerkungen übereinstimmend unterstützt. Aber unter dem Fluss von Verschwörungstheorien hat die social media-Plattformen weitgehend geschwiegen, was sie selbst in Bezug auf die Rolle bei den Ereignissen online getan haben, was sich deutlich von ihrer früheren aktiven Ansprache zur Behinderung der Ausbreitung von Lügen unterscheidet, die, unbehoben gelassen, das Potenzial haben könnten, weitere Konflikte anzuzünden.

Keine der größten Social-Media-Plattformen der USA antwortete auf Wochenlangen Anfragen von CNN über mehrere Tage in der Vergangenheit darauf, was Maßnahmen sie gegen die Verbreitung von Lügen und Verschwörungstheorien über den Trump-Rally-Schuss getroffen haben. Meta, Google, TikTok und X antworteten nicht. Nur Snapchat gab eine Erklärung ab, dass es anders als traditionelle Social-Media-Plattformen ist, da es kein curated Newsfeed bietet, auf dem Nutzer falsche Informationen verbreiten können.

Die stumme Stellung der Tech-Unternehmen unterstreicht, wie sich die Industrie-Giganten in den letzten drei Jahren zu einem deutlich distanzierenderen Ansatz verschritten sind – in ihrem neuesten Versuch, im Echtzeit die wettbewerbenden Werte der freien Ausdrucksrechte, Online-Sicherheit und politische Neutralität zu harmonisieren. Und was das Publikum auf Social-Media erlebte, nach dem Anschlag auf Trump, ist ein Zeichen von dem, was kommen wird, sagte Imran Ahmed, CEO des Center for Countering Digital Hate (CCDH), einer Social-Media-Beobachtungsgruppe, die für engeren Regulierung der Plattformen eintritt.

“Dies sollte ein Hinweis sein”, sagte Ahmed, “dass die Monate voraus liegen werden, genauso unverdiente, stult und verwickelt wie die letzten Tage auf Social-Media gewesen sind.”

Wie sind wir hierhergekommen?

Ein verblüffender Vielfalt an Faktoren haben zusammengearbeitet, um die heutige toxikere Informationsumwelt zu schaffen.

Sichtbarste ist Elon Musks Kauf von Twitter, jetzt bekannt als X, was das frühere Prämium-Social-Media-Ziel für brechende Nachrichten in ein wilde und weniger vertrauenswürdiges Platform verwandelt hat.

Musk hat mehrere verknüpfte Entscheidungen rund um Konten-Validierung, Zahlungen an Creators und Werden zulassen, die die Fähigkeit der Benutzer, sich gegenseitig zu vertrauen und was sie dort sehen, beeinträchtigt haben, wie Falschinformationensforscher lange gesagt hatten. Und er hat Barrieren für unabhängige Kontrolle aufgebaut, indem er Forschern hohe Gebühren für Zugang zur Plattformen-Daten auferlegt.

Benutzer auf X werden jetzt finanziell belohnt, unabhängig von der Genauigkeit oder Wahrheit des Inhalts, den sie posten. Obwohl Musk X’s Crowdsourced Fact-Checking Feature, Community Notes, als Schutz gegen Falschinformationen hinstellt, wird es heftig kritisiert, weil es langsam und unwirksam ist. Am Dienstag veröffentlichte CCDH neue Forschungsergebnisse, nach denen von den 100 erfolgreichsten Verschwörungstheorie-Posts auf X über Trumps Schuss, nur fünf enthielten eine Community Note, die eine falsche Behauptung widerlegte. Die Posts sammelten insgesamt mehr als 215 Millionen Ansichten auf X, laut CCDH.

Nachdem Musk die Plattform gekauft hat, hat er etwa 80% der Twitter-Vorbesitzer-Beschäftigten entlassen. Die Tiefschneidungen betrafen das Trust-and-Safety-Team, das die Plattform schützt, und in einer getrennten Maßnahme entfernte Musk Twitters Trust-and-Safety Council auswärtiger Experten.

Aber X war nicht allein in der Reduktion von Investitionen in Trust and Safety. Unternehmen begründeten die Massenentlassungen mit schwierigen makroökonomischen Bedingungen. Im Jahr 2019 hatte Snapchat 763 Mitarbeiter, die sich mit Trust and Safety beschäftigten, eine Zahl, die auf über 3.000 angewachsen war bis 2021, die die Firma dem Kongress im Jahr 2021 mitgeteilt hat. Aber bis 2023 war diese Zahl um 27% auf 2.226 gefallen. Meta und TikTok gaben dem Parlament an, dass sie jeweils etwa 40.000 Sicherheitsangestellte einsetzen, aber sie gaben keine Angaben darüber, wie diese Zahl in der Vergangenheit geändert hat.

Social-Media-Unternehmen haben sich in anderen Weisen auch zurückgezogen. YouTube hat sich entschlossen, wieder Lügen über die 2020er-Wahl auf seiner Plattform zu erlauben, und Meta hat entschieden, die Nachrichten, Politik und Sozialfragen in ihren curated Feeds ganz einzustellen.

“Meta hat entschieden, dass es sich nicht rentabel darin vermarkten kann, civic content zu liefern”, sagte Laura Edelson, eine Assistant Professor of Computer Science an der Northeastern University und Co-Director von Cybersecurity for Democracy, einer Forschungsgruppe, die sich mit digitaler Falschinformation befasst. “Es kann kein sicheres Social-Media-Produkt mit Politik und civic stuff bieten, und so hat es aus diesem Geschäft ausgestiegen.”

Baybars Orsek, Geschäftsführer des Tatsachenprüfungsorganisations Logically Facts, sagte, diese und andere Änderungen von Social-Media-Plattformen haben in den letzten Jahren die Zusammenarbeit mit ihnen deutlich herausfordernder gemacht.

Es ist besorgnisvolle Sichtweise, dass einige Plattformen sich von politischen Diskursen distanziert haben, anstatt transparente und skalierbare Politiken zu erlassen, um die Meinungsfreiheit zu schützen, ohne eine sichere Informationsumgebung aufrechtzuerhalten, erzählte Orsek CNN.

Es geht nicht nur um die eigenen Geschäftsentscheidungen der Unternehmen, die die Verschiebung angetrieben haben. Seit der Präsidentschaftswahl 2020 haben Forscher, die sich mit digitalen Plattformen beschäftigen, zunehmend berichtet, von Belästigung und Bedrohung zu erfahren, in manchen Fällen von US-Abgeordneten, die unbegründet behauptet haben, sie seien Teil einer staatlich angeführten Drückkampagne, um rechtsgerichtete Rede auf Social Media zu unterdrücken.

Jahrelang haben Konservative behauptet, dass die US-Regierung regelmäßig Treffen und E-Mails mit Social Media-Unternehmen geführt hat, um Covid-19- und Wahleninformation zu entfernen, was die First Amendment-Garantien der Amerikaner verletzt. Diese Behauptungen erreichten ihren Höhepunkt dieses Jahres am Obersten Gerichtshof, wo, in einer engeren Mehrheit, ein 6-3-Mehrheit nicht sagte, dass Regierungsanstrengungen, Plattformen aufgerufen zu entfernen, seien unverfassungsmäßig.

Diese Entscheidung bedeutet, dass die US-Regierung fortan weiterhin Misinformationsthreats an Social Media-Unternehmen in den Vorbereitungen zum 2024-Wahlkampf melden kann. Aber es bleibt den Unternehmen überlassen, was mit den Informationen zu tun sie wollen. Und das Trump-Rally-Attentat stellt nun Fragen über ihre Bereitschaft, darauf einzugehen, insbesondere im Hintergrund einer fortgesetzten Bemühung rechtsgerichteter Social Media-Kritiker, die Arbeit an Vertrauenswürdigkeit und Sicherheit und Misinformationforschung zu diskreditieren.

Das alles spielte sich am Samstag wie folgt ab:

Die Kombination aller diese Faktoren führte zu günstigen Bedingungen für eine Misinformationstürme um das Trump-Attentat.

Das Ereignis auslöste eine intensive Nachfrage nach Informationen. Mainstream-Medien, die vorsichtig waren, nur glaubwürdige Antworten zu veröffentlichen, waren anfangs langsamer als der hektische Tempo der Social-Media-Spekulation. Das führte zu einem Informationsdefizit: einer Lücke zwischen dem Bekannten und dem, was die Zuschauer wissen wollen.

Meta's Entscheidung, News und Politik in curated Feeds nicht zu befördern – Teil einer allgemeinen Industrie-Entfaltung auf Vertrauenswürdigkeit und Sicherheit aus wirtschaftlichen und kulturellen Gründen – hat vielleicht daran beigetragen, dass einige Menschen aus algorithmisch empfehlten Rabenlöchern abgehalten wurden, mindestens auf den eigenen Plattformen.

Aber in den Minuten nach dem Anschlag beschwerten sich einige Threads-Benutzer, dass Erwähnungen des Vorfalls auf der Seite nicht sofort zu finden waren, im direkten Gegensatz zu X – wo, dank früherer Entscheidungen Musks – konspiratorische Denkweisen bereits schnell und frei flossen.

Meta's Rückzug von der Förderung von Nachrichteninhalt wahrscheinlich hat das Informationsdefizit verstärkt, Edelson sagte, indem es nicht ausreichend autoritative Berichterstattung hochgehoben hat und wahrscheinlich Benutzer in die Arme von Konspiratoren auf anderen Plattformen getrieben hat.

Das Highlight erhebt die schwierigen Handelsbalancen eines schnell bewegenden Informationsökosystems, sagte Orsek.

"Die mangelnde stringente Inhaltskontrolle auf X hat dazu geführt, dass eine Vielzahl von Falschinformationen aufgekommen ist, während Meta's konservativerer Ansatz dazu geführt hat, dass weniger sofortige Informationen, sowohl zertifiziert als auch unzertifiziert, auf ihren Plattformen verfügbar sind", sagte Orsek.

(The Verge berichtete samstags, dass Meta wahrscheinlich News-Quellenberichte über das Attentat in Facebook-Suchergebnissen aufgeflogen ist, aber dass es ungleichmäßig conspirazionales Inhalt an den Spitzen seiner Trending-Thematik für das Ereignis zeigte.)

Darüber hinaus hat TikTok als wesentlichen Verbreiter von Falschinformationen hervorgegangen, weil sein Empfehlungsalgorithmus Videos zeigte, die er glaubte, den Benutzern würden resonieren lassen, statt hauptsächlich authentische Informationen.

Für andere Social-Media-Benutzer hat das Ereignis hervorgehoben, dass X der Plattform der Wahl ist, um große brechende Nachrichtenereignisse online zu verfolgen, selbst wenn die Informationsqualität verringert ist. Und die nahezu sofortige Festlegung pro-Trump- und anti-Trump-falscher Narrative um das Attentat zeigt, wie Amerikaner unterschiedliche Brillen durch die gleichen Tatsachen blickten, unabhängig von den tatsächlichen Tatsachen.

Die Eifer mit der Annahme von verleitenden Behauptungen, die mit dem Attentat in Verbindung gebracht wurden, ist eine besorgniserregende Entwicklung für den Zivilgespräch und die Demokratie, wie einige Forscher sehen.

Das eintretende Zertrümmerung der Benutzer, ihre Fähigkeit, sich gegenseitig zu vertrauen und die Informationen, die sie auf Social-Media-Plattformen sehen, zu vertrauen, kann mit den Entscheidungen Elon Musks über Account-Verifikation, Zahlungen an Creatoren und, wer auf Twitter zulassen soll, verknüpft werden. (business, tech)

Lesen Sie auch:

Kommentare

Aktuelles

Ich translate den folgenden Text in das Deutsche, ohne Kommentare hinzuzufügen. Ich sollte den...

Es donnert, das Wasser erSIeft schneller

Wasser schIMmt nicht notwendigerweise bei 100 Grad Celsius. Im Bergland schimmert es früher. Britische Forscher haben diesen Effekt auch während eines Sturms beobachtet - mit Konsequenzen für das Teeanziehen.

Mitglieder Öffentlichkeit