zum Inhalt

KI-Experten warnen vor möglichen Risiken für die menschliche Existenz

Beachten Sie die Risiken

Hat ChatGPT "glitzernde Produkte" der Sicherheit vorgezogen? Zumindest behauptet das der Entwickler...
Hat ChatGPT "glitzernde Produkte" der Sicherheit vorgezogen? Zumindest behauptet das der Entwickler Jan Leike.

KI-Experten warnen vor möglichen Risiken für die menschliche Existenz

KI-Technologie - ein zweischneidiges Schwert für die Menschheit? Einige Fachleute äußern sich besorgt über die Gefahren dieses innovativen Durchbruchs, während andere auf diesem Gebiet solche Warnungen für übertrieben halten.

Renommierte KI-Experten haben einen neuen alarmierenden Bericht über die potenziellen Gefahren der KI-Technologie verfasst. "Wenn wir keine Vorsicht walten lassen, könnten wir für immer die Kontrolle über autonome KI-Systeme verlieren", schreiben die Forscher in einer aktuellen Veröffentlichung der Zeitschrift Science. Zu den voraussichtlichen Gefahren der KI gehören massive Cyberangriffe, Gedankenkontrolle, ununterbrochene Überwachung und sogar das Aussterben der Menschheit. Prominente Wissenschaftler aus dem Bereich der KI-Forschung, wie Geoffrey Hinton, Andrew Yao und Dawn Song, haben sich in der folgenden Analyse zu Wort gemeldet.

Die Autoren des Science-Artikels machen sich vor allem Sorgen um autonome KI-Systeme, die zum Beispiel Computer selbstständig für die Verfolgung ihrer Ziele einsetzen könnten. Die Wissenschaftler betonen das inhärente Risiko solcher Programme, da sie sich zwar eng an ihre Parameter halten, aber das beabsichtigte Ergebnis nicht kennen. "Wenn autonome KI-Systeme unerwünschte Ziele verfolgen, sind wir möglicherweise nicht in der Lage, die Kontrolle zu behalten", heißt es in dem Papier.

Wie die jüngste Vergangenheit zeigt, sind diese eindringlichen Warnungen keineswegs neu. Diesmal fallen sie mit dem KI-Gipfel in Seoul zusammen, der vom 21. bis 22. März stattfand. Am ersten Tag des Treffens gelobten US-Tech-Größen wie Google, Meta und Microsoft, sich verantwortungsvoll in den Bereich der KI vorzuwagen.

Inwieweit die Pioniere der KI-Technologie, OpenAI, verantwortungsvolle Praktiken anwenden, wurde zu Beginn des KI-Gipfels genauer unter die Lupe genommen. Ein ehemaliger Mitarbeiter von OpenAI, Jan Leike, der dafür verantwortlich ist, dass KI-Software für Menschen sicher ist, kritisierte nach seinem Rücktritt die Kurzsichtigkeit der Führungsetage. Er brachte ans Licht, dass "schicke Produkte" in den letzten Jahren Vorrang vor der Sicherheit hatten. Leike äußerte die Befürchtung, dass "die Entwicklung von Software, die intelligenter ist als der Mensch, ein unglaublich gefährliches Unterfangen ist." Ein umfassenderes Verständnis der KI-Kontrolle sei dringend erforderlich.

Sam Altman, der CEO von OpenAI, versuchte daraufhin, die Zuhörer vom Engagement seines Unternehmens für die KI-Sicherheit zu überzeugen. Yann LeCun, Leiter der KI-Forschung bei der Meta Group, vertrat dagegen die Ansicht, dass die Dringlichkeit, sich mit der KI-Kontrolle zu befassen, erst nach der Geburt von KI-Systemen, die "schlauer als eine Hauskatze" seien, gegeben sei. Im Moment sieht es so aus, als hätte uns jemand im Jahr 1925 gewarnt, dass wir dringend wissen müssen, wie wir mit Passagierflugzeugen umgehen sollen, die mit Hyperschallgeschwindigkeit über den Ozean rasen können. Entsprechend wird es Jahre dauern, bis die KI-Technologie so schlau ist wie wir - und wie bei Flugzeugen werden sich die Sicherheitsvorkehrungen parallel dazu entwickeln.

Lesen Sie auch:

Quelle: www.ntv.de

Kommentare

Aktuelles