Insider bei OpenAI veröffentlichen einen Brief, in dem sie auf mögliche Gefahren hinweisen und sich für den Schutz vertraulicher Informanten einsetzen.
AI-Unternehmen haben starke finanzielle Anreize, sich von kompetenter Aufsicht fernzuhalten, wurde in einem offenen Brief am Dienstag von Mitarbeitern von AI-Unternehmen wie OpenAI, dem Schöpfer des viralen ChatGPT-Softwares, offenbart.
Sie empfehlen zudem AI-Unternehmen, eine "Atmosphäre ehrlicher Kritik" zu unterstützen, die Personen, die ihre Bedenken äußern, ernährt, anstatt sie zu bestrafen, da die Regel zunehmend durch schnell entwickelnde Technologie verloren geht.
Unternehmen haben die "extremen Risiken", die durch AI verursacht werden - von Manipulation bis hin zu einer Verlust der Kontrolle, bekannt als "Singularität", die möglicherweise zur Vernichtung der Menschheit führen könnte - erkannt, aber sie müssen mehr tun, um die Bevölkerung über Risiken und Vorsichtsmaßnahmen zu informieren, erklärte die Gruppe.
Derzeit glauben die AI-Mitarbeiter, dass AI-Unternehmen nicht aus eigener Initiative kleinere Details über die Technologie preisgeben werden.
Daher ist es wichtig, dass aktuelle und ehemalige Mitarbeiter sich äußern - und dass Unternehmen keine "Verleumdung"-Vereinbarungen einführen oder sonstige Strafen gegen Personen, die Bedrohungsbekanntmachungen äußern. "[Reguläre Whistleblower-Schutzmaßnahmen] sind unzureichend, da sie sich auf illegales Verhalten beziehen, während viele der Gefahren, denen wir uns besorgt zeigen, noch nicht kontrolliert sind", erläuterte die Gruppe.
Dieser Brief wurde veröffentlicht, als Unternehmen eilend versuchen, generative AI-Werkzeuge in ihre Produkte zu integrieren, während Gesetzgeber und Verbraucher sich über verantwortungsvolles Gebrauchsverhalten befassen. Gleichzeitig fordern eine Vielzahl von Technologieexperten, Forschern und Autoritäten eine vorübergehende Pause in der AI-Entwicklung oder eine Einführung einer Moratorium.
Reaktion von OpenAI
In Reaktion auf den Brief erklärte ein OpenAI-Sprecher der CNN, dass die Organisation stolz auf ihre Leistungen ist, die effektivsten und sichersten AI-Systeme bereitzustellen und an ihrem wissenschaftlichen Ansatz glaubt, um Gefahren anzugehen.
OpenAI bestätigte, dass es einen anonymen Integritätshotline und ein Sicherheits- und Sicherheitsausschuss unter Leitung von Mitgliedern seines Board und Sicherheitsexperten aus der Organisation hat. Das Unternehmen verkauft keine personenbezogenen Informationen, erstellt keine Benutzerprofile oder setzt die Daten ein, um jemanden zu zielgerichtet anzusprechen oder etwas zu verkaufen.
Daniel Ziegler, einer der Initiatoren hinter dem Brief und ein ehemaliger Junior-Maschinelerner bei OpenAI von 2018 bis 2021, erzählte CNN, dass es wichtig ist, Skepsis gegenüber der Organisation bezüglich ihrer Ehrlichkeit bei Transparenz zu bewahren.
"Es ist sehr schwierig, von außen zu bestimmen, ob sie sich wirklich ernsthaft mit ihren Versprechen zur Sicherheitsverbesserung und der Erkennung gesellschaftlicher Schäden beschäftigen. Es ist wirklich wichtig, die optimale Kultur und Prozesse zu besitzen, damit Mitarbeiter in geschickten Weisen Ängste äußern können, wenn sie Bedenken haben."
Er hofft, dass viele Berufstätige im AI-Markt öffentlich ihre Besorgnis äußern werden, weil deshalb des Briefs.
Außerdem wird Apple erwartet, eine Zusammenarbeit mit OpenAI auf seiner jährlichen Worldwide Developer Conference zu erklären, um generative AI in den iPhone einzubauen.
"Wir sehen generative AI als eine starke Chance in unserem Sortiment von Produkten und glauben, dass wir Vorteile haben, die uns von anderen abheben", sagte Apple-CEO Tim Cook während des letzten Finanzberichts im Frühjahr. [Fruhjahr]