Germany
This article was added by the user . TheWorldNews is not responsible for the content of the platform.

»Risiko der Auslöschung«: KI-Koryphäen von OpenAI und Google warnen

Foto: DrPixel / Getty Images

Mit einem auffallend kurzen und allgemein gehaltenen Statement haben Hunderte Expertinnen und Experten am Dienstag vor künstlicher Intelligenz gewarnt: »Es sollte global priorisiert werden, das Risiko der Auslöschung durch KI zu verringern – auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft, wie etwa Pandemien und Nuklearkrieg«, lautet es übersetzt.

Zu den Unterzeichnern zählen Sam Altman, CEO von OpenAI, Demis Hassabis, Chef von Google DeepMind, sowie die mit dem Turing Award ausgezeichneten KI-Forscher Geoffrey Hinton und Yoshua Bengio. Auch Taiwans Digitalministerin Audrey Tang, Microsofts Technikchef Kevin Scott, die Musikerin Grimes sowie zahlreiche KI-Fachleute aus der Forschung und der Wirtschaft stehen auf der Liste.

Veröffentlicht wurde die Botschaft vom Center for AI Safety (Zentrum für KI-Sicherheit) aus San Francisco. Die »New York Times« hatte als Erstes darüber berichtet  . Der Zeitung zufolge ist das Statement absichtlich so knapp gehalten, um Fachleute vereinen zu können, die ansonsten verschiedene Ansichten über die konkrete Gefahr durch KI oder geeignete Abwehrmaßnahmen hätten.

Unterschrieben von denen, die KI selbst entwickeln

Bereits Ende März hatten Prominente wie Elon Musk und KI-Spezialisten einen offenen Brief veröffentlicht, in dem sie eine sechsmonatige Pause beim Trainieren neuer KI-Systeme forderten, die das aktuelle OpenAI-Modell GPT-4 noch übertreffen. »Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sein werden«, hieß es in ihrem Schreiben . Anfang Mai hatte KI-Pionier Geoffrey Hinton mit einer eigenen Warnung nachgelegt  , nachdem er seinen langjährigen Arbeitgeber Google verlassen hatte. Auch andere Experten, die in den vergangenen Wochen und Monaten in Gastbeiträgen  oder Interviews  ihre Sorgen vor unkontrollierbarer KI geäußert haben, stehen sowohl unter dem offenen Brief aus dem März als auch unter dem neuen Statement vom Dienstag.

Die nun vom Center for AI Safety veröffentlichte Warnung ist vor allem deshalb bemerkenswert, weil viele der Unterzeichner in leitenden Positionen bei genau jenen Unternehmen beschäftigt sind, die gerade mit Hochdruck an immer leistungsfähigeren KI-Modellen und -Anwendungen arbeiten.

Sam Altman etwa hatte vergangene Woche im Interview mit dem SPIEGEL  gesagt, er sei »sehr besorgt, dass mithilfe von KI-Systemen biologische Kampfstoffe entwickelt werden könnten«. Doch rote Linien in der Entwicklung will er nicht allein ziehen: »Es ist entscheidend, dass wir in einem demokratischen Prozess die Grenzen für diese Technologie bestimmen und als Menschen die Kontrolle behalten. Im Übrigen brauchen wir auch als Unternehmen Klarheit und sollten deshalb reguliert werden.«

Es gibt in der Forschungscommunity jedoch auch Widerspruch. Metas KI-Chefwissenschaftler Yann LeCun etwa, der zusammen mit Hinton und Bengio den Turing Award verliehen bekommen hat, wollte bisher keinen der Appelle unterschreiben. Er bezeichnet die Warnungen teils als »KI-Doomismus« .