zum Inhalt

KI-Experten bitten um Erlaubnis, vor den Gefahren zu warnen.

KI-Entwickler in Start-ups wie OpenAI sind gut positioniert, um mögliche Risiken zu bewerten. Dennoch äußern einige Fachleute Bedenken über mögliche Konsequenzen, wenn sie negatives Feedback geben.

ChatGPT ist der bekannteste Chatbot, der vor über einem Jahr den Hype um künstliche Intelligenz...
ChatGPT ist der bekannteste Chatbot, der vor über einem Jahr den Hype um künstliche Intelligenz ausgelöst hat.

Technologie des maschinellen Lernens - KI-Experten bitten um Erlaubnis, vor den Gefahren zu warnen.

Künstliche Intelligenz (KI) Forscher, unter ihnen der Gründer von ChatGPT von OpenAI, bitten um das Recht, der Öffentlichkeit über mögliche Gefahren von Software zu warnen.

Die bestehenden Schutzmechanismen für Whistleblower reichen nicht aus, argumentierten die Experten in einem weit verbreiteten offenen Brief. Dies bezieht sich hauptsächlich auf illegale Aktivitäten von Unternehmen, aber in vielen Fällen gibt es keine rechtlichen Regelungen für KI. "Einige von uns sind ängstlich, sich auszusprechen, da es bereits Beispiele von Racheaktionen in der Branche gegeben hat", gestanden sie.

Kurz nachdem wir von einem aktuellen Beispiel erfuhren, dass der ehemalige OpenAI-Forscher Leopold Aschenbrenner im "Dwarkesh Podcast" gesagt hat, er entlassen wurde, weil er Sicherheitsbedenken gegenüber der KI-Firma an die Aufsichtsratssitzung geäußert hat.

Die Forscher forderten Organisationen mit fortgeschrittenen KI-Modellen auf, vier Prinzipien zu übernehmen. Dazu gehören, dass Mitarbeiter negativ über ihre Arbeitgeber sprechen dürfen, ohne Angst vor Strafe - eine Sorge, die aufgerissen wurde, nachdem OpenAI ehemaligen Mitarbeitern die Aktienoptionen auslaufen ließ, wenn sie negativ über die Firma sprachen. OpenAI-CEO Sam Altman entschuldigte sich, behauptete, er wusste nichts von der Klausel und versprach, dass sie niemals verwendet wurde.

Das Schreiben schlägt auch einen Prozess vor, der es Mitarbeitern ermöglicht, ihren Unternehmensvorständen und Behörden anonym über Risiken in KI-Software zu informieren. Wenn es keine internen Kanäle gibt, sollen sie die Freiheit haben, öffentlich zu sprechen.

KI-Experten haben betont, dass die schnelle Entwicklung von KI zu autonomen Software führen könnte, die jenseits menschlicher Kontrolle geht. Mögliche Auswirkungen sind die Verbreitung von Falschmeldungen, Arbeitsplatzverluste und sogar die Möglichkeit des Aussterbens der Menschheit. Regierungen arbeiten derzeit an Regelungen für die Entwicklung von KI-Software, wobei OpenAI eine Pionierrolle in diesem Bereich einnimmt, da das Software, das ChatGPT antreibt, ein Pionier in diesem Feld ist.

Ein Vertreter von OpenAI betonte, dass die Firma einen "wissenschaftlichen Ansatz zu Technikrisiken" verfolgt. Mitarbeiter dürfen anonym ihre Bedenken äußern, sollten sie jedoch keine geheimen Informationen öffentlich teilen, die in die falsche Hand kommen könnten.

Vier aktuelle und zwei ehemalige Mitarbeiter von OpenAI unterzeichneten das Schreiben anonym. Unter den sieben, die ihren Namen preisgaben, sind fünf ehemalige Mitarbeiter von OpenAI und ein ehemaliger Mitarbeiter von Google-gehörigen DeepMind. Neel Nanda, ein Mitarbeiter von DeepMind, der zuvor bei der AI-Startup Anthropic gearbeitet hat, betonte, er habe keine Gründe, über was in seiner aktuellen oder ehemaligen Arbeitsstelle passiert, zu warnen.

Nachdem OpenAI im November aufgrund von Vertrauensverlust von der Aufsichtsratssitzung entfernt wurde, wurde Altman nur wenige Tage später wieder eingesetzt. Die ehemalige Aufsichtsrätin Helen Toner erklärte, dass es so passiert ist, weil das Komitee erst über die Veröffentlichung von ChatGPT aus dem Medium erfuhr - was Fragen aufwirft, ob die Firma die Technologie zu leicht zugänglich gemacht hat, ohne die notwendigen Sicherheitsmaßnahmen.

Später stieß OpenAI auf Kritik, als die Schauspielerin Scarlett Johansson fragte, warum eine Stimme von ChatGPT so ähnlich wie ihre klang, obwohl sie die Angebot, Sprachdaten für es zu liefern, ablehnte.

Lesen Sie auch:

Kommentare

Aktuelles