Skip to content

OpenAI faces pressure to diversify its board of directors. You can start by thinking outside Silicon Valley

Over the past year, OpenAI has solidified its position as one of the most powerful technology startups in the world. The release of ChatGPT sparked an AI revolution that sent shockwaves through nearly every industry, and the public remains both fascinated and frightened by the possibilities it...

Sam Altman, CEO von OpenAI, spricht während einer Konferenz in Station F in Paris am 26. Mai 2023.....aussiedlerbote.de
Sam Altman, CEO von OpenAI, spricht während einer Konferenz in Station F in Paris am 26. Mai 2023. Altman, der Chef von OpenAI, dem Unternehmen hinter dem beliebten ChatGPT-Bot, sagte am 26. Mai 2023 in Paris, dass die Technologie seines Unternehmens den Arbeitsmarkt nicht stören würde, und versuchte, Bedenken hinsichtlich der Entwicklung künstlicher Intelligenz (KI) zu zerstreuen. Sorge..aussiedlerbote.de

OpenAI faces pressure to diversify its board of directors. You can start by thinking outside Silicon Valley

Die Veröffentlichung von ChatGPT läutete eine KI-Revolution ein, die nahezu jede Branche erschütterte und die Öffentlichkeit sowohl fasziniert als auch verängstigt von den Möglichkeiten, die sie eröffnete, auslöste.

Aber das Unternehmen, das die Technologie mit einem geschätzten Wert von bis zu 90 Milliarden US-Dollar entwickelt hat, wurde kürzlich auch wegen seiner offensichtlichen mangelnden Diversität innerhalb seines derzeitigen Führungsgremiums kritisiert.

Nach einer kurzen Explosion im letzten Monat, als CEO Sam Altman entlassen und innerhalb einer Woche wieder eingesetzt wurde, konzentrierte sich das Unternehmen laut OpenAI wieder auf seine Kernaufgabe, indem es seinen Vorstand neu organisierte.

Der Vorfall führte zum Ausscheiden der einzigen weiblichen Direktorin im Vorstand, der nun nur noch aus drei weißen männlichen Direktoren besteht. Zwei von ihnen passen weitgehend in die Form der „Tech-Brüder“ des Silicon Valley. Der dritte ist ein Ökonom von der Ostküste, der in der Vergangenheit kontroverse Bemerkungen über Frauen gemacht hat.

Der Mangel an Diversität im Vorstand scheint im Widerspruch zu der öffentlich erklärten Mission von OpenAI zu stehen, die nach Angaben des Unternehmens darin besteht, sicherzustellen, dass allgemeine künstliche Intelligenz „der gesamten Menschheit zugute kommt“.

Nun fragen sich immer mehr Stimmen innerhalb und außerhalb der Technologiebranche, wie OpenAI dieses hohe Ziel erreichen kann, ohne Menschen mit unterschiedlichem Hintergrund in sein Aufsichtsgremium einzubeziehen. Sie weisen zunehmend darauf hin, dass der Einsatz nicht höher sein könnte.

Sogar die Gesetzgeber in Washington beginnen, wegen des Problems Alarm zu schlagen.

„Wir ermutigen OpenAI nachdrücklich, schnell zu handeln, um seinen Vorstand zu diversifizieren“, sagten die Abgeordneten Emanuel Cleaver, D-Mo., und Barbara Lee, D-Calif., Anfang dieser Woche in einem Brief an Altman und den Vorstand erhalten von CNN.

„Der Mangel an Vielfalt und Repräsentation in der KI-Branche hängt eng mit Problemen der Voreingenommenheit und Diskriminierung in KI-Systemen zusammen“, fügte das schwarze Gesetzgeberduo hinzu.

Es gibt den Menschen einen „weißen Retterkomplex“###

Die langjährige KI-Forscherin Margaret Mitchell, die das Ethical AI-Team von Google gründete, bevor sie 2021 inmitten einer Kontroverse, die die Technologiebranche erschütterte, entlassen wurde, sagte gegenüber CNN, sie solle ihre Sorge um alle zum Ausdruck bringen. Der einzige Weg, künstliche Intelligenz voranzutreiben, ist der vorteilhafteste Weg für die Menschen. Menschen Menschen auf der ganzen Welt haben tatsächlich unterschiedliche Lebenserfahrungen.

„Nach meinem aktuellen Verständnis glaube ich nicht, dass OpenAI eine Technologie entwickeln kann, die ‚der gesamten Menschheit zugute kommt‘“, sagte Mitchell, der derzeit als leitender Ethikwissenschaftler bei Hugging Face tätig ist, einem auf Entwickler ausgerichteten KI-Unternehmen. sagte CNN. „Ein Grund dafür ist, dass selbst dieser Ausdruck eine reduziertere Herangehensweise an das, was Menschen wollen, impliziert.“

Wenn überhaupt, sagte sie, erinnerte mich die Mission „mehr an den weißen Retterkomplex“ und bezog sich dabei auf die Ideologie, dass einige weiße Menschen den Glauben entwickeln können, dass ihre Rolle darin bestehe, farbige Gemeinschaften zu verstehen und zu schützen.

„Wenn wir versuchen, Technologie zu implementieren, die die Perspektive überwiegend wohlhabender weißer Männer im Silicon Valley widerspiegelt, leisten wir gute Arbeit“, sagte Mitchell. „Aber ich denke, wir können es besser machen.“

„Der Torwächter der Möglichkeiten“ ###

Auf künstlicher Intelligenz basierende Werkzeuge sind in Schlüsselbereiche des täglichen Lebens der Menschen vorgedrungen.

Sie „entscheiden, wer eingestellt wird, wer eine Krankenversicherung erhält, wer eine Hypothek erhält, sogar wer einen Termin bekommt“, sagte Dr. Joy Buolamwini, Gründerin der Algorithmic Justice League, einer Gruppe, die die Schäden künstlicher Intelligenz untersucht.

„Wenn KI-Systeme als Torwächter von Chancen eingesetzt werden, ist es von entscheidender Bedeutung, dass die Aufsicht über das Design, die Entwicklung und den Einsatz dieser Systeme die Gemeinschaften widerspiegelt, die von ihnen betroffen sein werden“, sagte Buolamwini, ebenfalls Autor von Uncovered Author. Künstliche Intelligenz: Meine Mission ist es, die Menschheit in einer Welt der Maschinen zu schützen. "

Sie fügte hinzu, dass Frauen und farbige Menschen derzeit eine „globale Mehrheit“ ausmachen, „ihre Abwesenheit in der KI-Governance auf jeglicher Ebene untergräbt die Bemühungen, robuste und verantwortungsvolle KI-Systeme aufzubauen.“

Buolamwini stellte unterdessen fest, dass Forschungen weiterhin zeigen, dass Rassismus und Sexismus „in KI-Systeme eingebaut werden“.

Große Sprachmodelle sind die zugrunde liegende Technologie für generative KI-Tools wie ChatGPT und werden auf großen Datenmengen trainiert. Da die meisten Daten von Menschen geschrieben werden und aus dem Internet stammen, laufen generative KI-Tools Gefahr, menschliche Vorurteile, die bereits im Internetdiskurs verankert sind, weiter zu verbreiten, allerdings in alarmierendem Ausmaß.

OpenAI sagte, dass zu den aktuellen Vorstandsmitgliedern der ehemalige Salesforce-Co-CEO, der ehemalige Twitter-Vorsitzende Bret Taylor, der ehemalige Finanzminister Larry Summers und der Online-Q&A-CEO Adam D'Angelo gehören. Die Quora-Plattform ist nur „anfänglich“.

Vor fast 20 Jahren sorgte Summers in Harvard für Aufruhr mit Kommentaren, für die er sich später entschuldigte und die darauf hindeuteten, dass angeborene Unterschiede zwischen den Geschlechtern den Aufstieg von Frauen in Naturwissenschaften und Technik behinderten. „Natürlich sind Larry, Adam und ich fest davon überzeugt, dass Vielfalt von entscheidender Bedeutung ist, wenn wir mit dem OpenAI-Vorstand vorankommen“, sagte Vorstandsvorsitzender Taylor in einer Erklärung gegenüber CNN durch einen Vertreter.

„Wir sind bestrebt, einen vielfältigen Vorstand zusammenzustellen“, heißt es in der Erklärung. Das Unternehmen hat noch keinen Zeitplan für die Einstellung neuer Vorstandsmitglieder bekannt gegeben.

In einem Blogbeitrag, in dem er seine Rückkehr als CEO ankündigte, sagte Altman, dass zu den wichtigsten Zielen des aktuellen Teams „die äußerst wichtige Aufgabe gehört, einen Vorstand mit vielfältigen Perspektiven aufzubauen“.

Wie es im Silicon Valley und in der gesamten Unternehmenswelt der Trend ist, wirbt OpenAI öffentlich für seine laufenden „Investitionen in Vielfalt, Gerechtigkeit und Inklusion“.

Das Unternehmen sagte, dies sei „durch eine breite Palette von Initiativen umgesetzt worden, die allen im Unternehmen gehören und von der Führung verfochten und unterstützt werden“. Außerhalb des Vorstands gehören zum aktuellen Führungsteam von OpenAI auch eine Handvoll Frauen in Führungspositionen, darunter Mira Murati, die als Chief Technology Officer fungiert. Inmitten des Chaos wurde Mulati für eine sehr kurze Zeit zum Interims-CEO ernannt, bis Altman zurückkehrte.

Einige Nachrichtenberichte deuten darauf hin, dass die jüngsten Vorstandsmitglieder Tasha McCauley und Helen Toner an der Abstimmung zur Entfernung von Ultra beteiligt waren, nachdem ein Konflikt zwischen Toner und Ultraman Mann das Unternehmen verlassen hatte. Der öffentliche Sturz der damals einzigen beiden Frauen im Vorstand warf Fragen über das Innenleben des privat geführten Riesen auf.

Rekrutierung außerhalb des Silicon Valley ###

In den Wochen seit der aufsehenerregenden Führungsüberarbeitung, die kurz vor Thanksgiving endete, hatten einige Branchenbeobachter Raum, sich kreativ vorzustellen, wie ein neuer Vorstand aussehen könnte und wie OpenAI seine erklärte Mission besser erfüllen kann.

Buolamwini wies darauf hin, dass es wichtig sei, „sich daran zu erinnern, dass es nicht ausreicht, einen Sitz im Vorstand zu haben, wenn dieser nicht über ‚Entscheidungsbefugnis‘ verfügt“, wenn Unternehmen ihren Vorständen unterschiedliche Perspektiven hinzufügen möchten.

„Schon die Schaufensterdekoration in einem Raum fördert den Alibiismus“, sagte sie und fügte hinzu, dass eine leere Repräsentation genauso schädlich sein kann wie gar keine Repräsentation, da sie dazu genutzt werden kann, „die Prüfung zu behindern, ohne Veränderungen herbeizuführen“.

OpenAI könnte auch damit beginnen, seinen Sitzungssaal zu diversifizieren, fügte Mitchell hinzu, und zwar nicht nur durch die Konzentration auf Akteure der Technologiebranche, sondern auch durch die Rekrutierung von Außenstehenden, die es wagen, Perspektiven aufzuzeigen, die die Eliten des Silicon Valley möglicherweise übersehen.

„Indem wir die Leute verärgern, können wir das System grundlegend verändern und es inklusiver machen“, sagte Mitchell.

Kritiker sagen, dass OpenAI, wenn es wirklich versucht, seine Mission zu erfüllen, genauso gut damit beginnen sollte, sich anzusehen, wo seine Technologie bereits großen Schaden anrichtet.

Künstler und Kreative beispielsweise haben im vergangenen Jahr um ihre Zukunft gekämpft, wobei die Verbreitung von Werkzeugen der künstlichen Intelligenz nicht nur ihre Arbeitsplätze bedroht, sondern möglicherweise auch ihre Ideen reproduziert. Mitchell schlug vor, dass OpenAI damit beginnen könnte, ähnliche Konflikte zu lösen, vielleicht indem es einem arbeitenden Künstler einen Sitz im Vorstand gewährt.

Angesichts der Tatsache, dass Werkzeuge der künstlichen Intelligenz in den kommenden Jahren einen Großteil unserer Arbeitsweise auf den Kopf stellen werden, glauben einige, dass es von Vorteil sein könnte, von Gewerkschaftsführern zu hören, wie am besten sichergestellt werden kann, dass Menschen nicht ihre Lebensgrundlage verlieren, wenn die Technologie immer leistungsfähiger wird.

Microsoft, ein wichtiger Unterstützer von OpenAI mit einer Investition von 13 Milliarden US-Dollar, hat einen überraschenden Schritt in diese Richtung unternommen, als es Anfang dieser Woche eine einzigartige Partnerschaft mit der AFL-CIO-Beziehung ankündigte.

Der Softwareriese versprach der Koalition einen „offenen Dialog“ mit Gewerkschaftsführern über die Auswirkungen künstlicher Intelligenz auf die Zukunft der Arbeit.

Letztlich, so Buolamwini, hat eine wirkungsvolle KI-Governance „nichts mit einem Unternehmen oder einem Vorstand zu tun“.

„Eine Selbstregulierung dieser wichtigen Technologie reicht nicht aus“, fügte Buolamwini hinzu. „Ich würde Regierungen auf der ganzen Welt dazu auffordern, strenge Gesetze einzuführen, um Menschen vor Schäden durch künstliche Intelligenz zu schützen.“

Read also:

  1. OpenAI sollte verschärfte Bemühungen unternehmen, um seine mangelnde Diversität im Vorstand durch Aktivitäten wie die Rekrutierung von Individuen aus dem Technologie- und Businessbereich zu diversifizieren.
  2. Auch wenn Tech-Unternehmen wie OpenAI eine breite Palette von Initiativen und Zielen aufbrechen, wie zum Beispiel Investitionen in Vielfalt und Inklusion sowie Vorständen mit unterschiedlichen Perspektiven, ist es wichtig, sich anzügliche Außenstehende um Mitglieder im Vorstand zu wenden, um Verschmelzung und Weiterentwicklung der Unternehmensmission zu erreichen.

Source: edition.cnn.com

Comments

Latest

Grave accusations levied against JVA staff members in Bavaria

Grave accusations levied against JVA staff members in Bavaria

Grave accusations levied against JVA staff members in Bavaria The Augsburg District Attorney's Office is currently investigating several staff members of the Augsburg-Gablingen prison (JVA) on allegations of severe prisoner mistreatment. The focus of the investigation is on claims of bodily harm in the workplace. It's

Members Public