Die sozialen Medien bemühen sich, vor der Abstimmung im November mit den von der KI produzierten Bildern zu konfrontieren.
Anmerkung der Redaktion: Eine frühere Version dieses Artikels erschien im Newsletter "Trustworthy Sources". Melden Sie sich hier an, um täglich aktuelle Informationen über die sich entwickelnde Medienlandschaft zu erhalten.
Am Donnerstag enthüllte TikTok seine Pläne, KI-generierte Inhalte zu kennzeichnen. Nach der Erklärung von Meta im letzten Monat über die Kennzeichnung solcher Inhalte hat auch YouTube Regeln eingeführt, die von den Urhebern verlangen, offenzulegen, wenn Videos von KI erstellt wurden, um eine Kennzeichnung anzubringen. Elon Musk's X hat keine Pläne zur Kennzeichnung von KI-Inhalten angekündigt.
Da die hochbrisanten Wahlen im November in weniger als 200 Tagen anstehen und die Technologie rasante Fortschritte macht, haben die drei größten Social-Media-Plattformen - TikTok, Meta und YouTube - ihre Pläne bekannt gegeben, um den Nutzern zu helfen, zwischen von Menschen und Maschinen erstellten Inhalten zu unterscheiden.
OpenAI, der ChatGPT-Ersteller, der mit seinem DALL-E-Modell auch die Erstellung von KI-generierten Bildern ermöglicht, hat kürzlich ein Tool zur Erkennung von KI-generierten Bildern vorgestellt. Das Unternehmen hat außerdem zusammen mit Microsoft einen mit 2 Millionen Dollar dotierten Fonds zur Verhinderung von Wahlbetrug eingerichtet, um Deepfakes zu bekämpfen, die Wähler manipulieren und der Demokratie schaden könnten.
Diese Initiativen signalisieren eine wachsende Einsicht des Silicon Valley in die potenzielle Störung, die KI-entwickelte Tools in der Informationslandschaft verursachen können, und in das Potenzial, demokratischen Prozessen schweren Schaden zuzufügen.
Von KI erstellte Bilder haben sich bereits als trügerisch erwiesen. Diese Woche täuschte ein kühnes, von der KI generiertes Bild von Katy Perry, die in einem glitzernden, geblümten Kleid an der Met Gala teilnahm, viele Menschen, sogar Perrys eigene Mutter, die dachte, es sei wahr. Erst als Perry den Ursprung des Bildes klärte, erkannte ihre Mutter die Wahrheit. Auch wenn der Schaden minimal war, ist es nicht schwer, sich ein Szenario vorzustellen - insbesondere zu Beginn einer entscheidenden Wahl -, in dem ein irreführendes Foto die Wähler in die Irre führen und Chaos verursachen kann, wodurch die öffentliche Meinung zugunsten eines Kandidaten beeinflusst werden könnte.
Leider hat es die Regierung versäumt, einzugreifen und Sicherheitsvorkehrungen für diese Technologie zu treffen. Da die Bundesregierung wenig Enthusiasmus für solche Maßnahmen zeigt, obliegt es der Industrie, die von KI erstellten Inhalte zu regulieren und ihre Ausnutzung für schädliche Zwecke zu verhindern. (Man fragt sich unweigerlich, was da schief gehen könnte.)
Es bleibt abzuwarten, ob diese Bemühungen der Industrie die Verbreitung von schädlichen Deepfakes wirksam eindämmen können. Soziale Medienunternehmen, die für ihre laxe Durchsetzung von Inhaltsregeln berüchtigt sind, haben es in der Vergangenheit versäumt, bösartige Inhalte in Schach zu halten. Angesichts des zunehmenden Zustroms von KI-generierten Bildern und der Tatsache, dass vor einer entscheidenden Wahl mehr denn je auf dem Spiel steht, ist das Vertrauen in ihre Fähigkeit, den Informationsraum ordnungsgemäß zu kontrollieren, nicht gerade groß.
Die dynamische Wechselwirkung zwischen KI-Technologie und Wahlen unterstreicht den dringenden Handlungsbedarf zur Verhinderung ihres Missbrauchs. Inwieweit die Branche diese Aufgabe bewältigen kann, ist ungewiss.
Lesen Sie auch:
- Jahr der Klimarekorde: Extreme sind die neue Normalität
- Vorbeugende Festnahmen offenbaren die Bedrohung durch islamistischen Terror
- Die Vereinten Nationen stimmen für einen Waffenstillstand in Israel
- SPD schließt Haushaltsbeschluss vor Jahresende aus
Quelle: edition.cnn.com