Welche Ideologie hinter Geoffrey Hintons Warnungen steckt

KI-Pionier Geoffrey Hinton verwendet bei seinen Warnungen vor einer übermächtigen KI Argumente einer umstrittenen Bewegung.

In Pocket speichern vorlesen Druckansicht 158 Kommentare lesen

(Bild: Kiselev Andrey Valerevich / Shutterstock.com)

Lesezeit: 4 Min.

Der Ausstieg des KI-Pioniers Geoffrey Hinton bei Google und seine Warnungen vor den Gefahren durch KI haben für viel Wirbel gesorgt. Altgediente Kritiker und Kritikerinnen großer Sprachmodelle und der Unternehmen, die sie herstellen und kontrollieren, werfen Hinton nun vor, die bereits jetzt existierenden Probleme, die große Sprachmodelle hervorrufen, zu ignorieren und klein zu reden. Beispielhaft verdeutlicht werde dies beispielsweise durch die fehlende Unterstützung Hintons für die KI-Ethikerin Timnit Gebru, als diese von Google gefeuert wurde. In einem Fernseh-Interview begründete Hinton dies damit, dass die Kritik von Gebru und ihren Kolleginnen weniger existentiell gewesen sei, als die Befürchtungen, die ihn nun umtreiben.

Auffällig ist jedoch, dass Hinton in seinen Interviews Begriffe und Denkfiguren verwendet, die dem "effektiven Altruismus" zugeordnet werden können – einer Bewegung, die in den USA viel Einfluss hat, die aber auch sehr umstritten ist. So spricht Hinton beispielsweise von der "existentiellen Bedrohung" der Menschheit durch KI. Das Nachdenken über existentielle Risiken (xrisk) – der Begriff wurde vom britischen Philosophen Nick Bostrom geprägt – gehört ebenso zum Fundus dieser Bewegung, wie das Argument, eine intelligente KI werde versuchen, Menschen zu manipulieren, um ihre Ziele zu erreichen.

Ein Kommentar von Wolfgang Stieler

Nach dem Studium der Physik wechselte Wolfgang Stieler 1998 zum Journalismus. Bis 2005 arbeitete er bei der c't, um dann als Redakteur der Technology Review zu wirken. Dort betreut er ein breites Themenspektrum von Künstlicher Intelligenz und Robotik über Netzpolitik bis zu Fragen der künftigen Energieversorgung.

Eigentlich ist Effektiver Altruismus (EA) zunächst mal nur eine Denkschule, die versucht, neoliberale Ökonomie und Ethik miteinander zu verbinden. Die Grundprämisse ist: Es gibt zu viel Elend, zu viele Probleme auf der Welt. Die können nicht alle gelöst werden. Wie kann das "knappe Gut" möglicher Hilfe also möglichst "gewinnbringend" eingesetzt werden. Daraus ergeben sich eine Reihe weiterer – zunehmend abenteuerlicher – Schlussfolgerungen.

Eine davon ist "Earn to Give". Die Idee: Weil jeder Mensch nur begrenzte Zeit und Energie aufwenden kann, ist es ethisch geboten, so schnell wie möglich, so viel Geld wie möglich zu machen, um einen Teil dieses Geldes dann zu spenden. Traditionelle ethische Überlegungen wie "Finanzspekulationen werden von Gier getrieben und sind nicht in Ordnung" werden von diesem Prinzip übergeregelt.

Daraus folgt – wenig überraschend: EA hat sich seit Anfang der 2000er vor allem im Silicon Valley zu einer Bewegung entwickelt, die über viel Geld und damit einigen Einfluss verfügt, weil sie Tech-Bros wie Peter Thiel, Elon Musk oder Sam Bankman-Fried angezogen hat. Gleichzeitig liefert sie nicht nur organisatorische Strukturen, sondern auch einen ideologischen Kern, der das Handeln dieser Gruppe als gerechtfertigt, logisch und ethisch einwandfrei begründet.

Während sich die Bewegung zunächst auf "evidenzbasierte" Hilfsprojekte konzentrierte, gewann zunehmend ein ideologischer Zweig an Bedeutung, der "Longtermism" genannt wird – ein Begriff, für den es noch immer keine gute deutsche Übersetzung gibt. Die Idee dahinter: Weil in der Zukunft bedeutend mehr Menschen leben werden als bisher gelebt haben, bedeutet die Maximierung des menschlichen Glücks zunächst mal, die Existenz der Menschheit zu sichern. Denn glaubt man Nick Bostrom, liegt das Schicksal der Menschheit darin, Intelligenz im Kosmos zu verbreiten. EA steht damit in der Tradition von technischen Utopien wie dem Transhumanismus.

Longtermism darf jedoch nicht mit langfristigem Denken verwechselt werden. Wer glaubt, dass sich aus dem Nachdenken über existenzielle Risiken ein entschiedener Kampf gegen den Klimawandel ableiten lässt, der irrt. Da der Klimawandel voraussichtlich nicht zum Aussterben der Menschheit führen wird, gilt er in EA-Kreisen nicht als existenzielle Bedrohung. Ein Atomkrieg, eine von Menschen verursachte Pandemie, der Ausbruch eines Supervulkans, kaskadierendes Systemversagen und natürlich auch eine außer Kontrolle geratene Super-Intelligenz gehören dagegen ganz sicher zu den existentiellen Krisen, und sind somit auf jeden Fall zu vermeiden – wenn die Menschheit es denn schafft. Denn laut Hinton könne und werde eine entsprechend intelligente KI Menschen so manipulieren, dass sie mehr Autonomie erlangt, eine Idee, die aus dem sogenannten AI-Box-Experiment stammt, das in xrisk-Kreisen seit den 2000ern diskutiert wird.

Werten diese Zusammenhänge die Argumente Hintons eher auf oder lassen sie sie als zweifelhaft erscheinen? Im Moment scheint nur eines sicher zu sein: Die über 50 Jahre andauernde Diskussion um die Chancen und Risiken Künstlicher Intelligenz ist noch lange nicht vorbei. Im Gegenteil: Sie hat gerade erst mächtig Fahrt aufgenommen.

(wst)