Was ist passiert? Die Universität Oxford hat (am 16. April) das Institut geschlossen, das Elon Musks beliebtester Philosoph leitete: Das “Future of Humanity Institute” von Nick Bostrom. Die Gründe sind nicht wirklich transparent, die Erklärung gegenüber einem Webportal liest sich eher dünn:
“Oxford University has taken the difficult decision to close the Future of Humanity Institute, a research centre in the Faculty of Philosophy. The Institute has made an important contribution to the study of the future of humanity, for which we would like to thank and recognise the research team. Researchers elsewhere across Oxford University are likely to continue to work on this emerging field.“
Quelle: Statement gegenüber “Daily Nous”
Bostrom war einer der Initiatoren eines offenen Briefes, in dem Wissenschaftler forderten, die KI-Entwicklung für sechs Monate zu pausieren, um über Grundlagen einer Regulierung zu diskutieren. Der Brief war umstritten, weil er auch als geschickter Schachzug von Unterzeichner Musk gegen Open AI verstanden werden konnte – das Unternehmen hinter Chat GPT, an dem früher auch Musk selbst beteiligt war.
Wie lautet die Kritik an Bostrom? Bostrom gilt wie Musk als einer der Anhänger des “Long-Termism” – die Menschheit soll sich danach auf die langfristige Problemlösung durch KI-Entwicklung oder Marsflüge konzentrieren. Kritiker halten dem entgegen, dass diese Denkrichtung greifbare aktuelle Probleme wie den Klimawandel oder die weltweite Armut außer Acht lasse. Zugespitzt: Wir können die Erde ruhig versauen, weil wir dann ja zum Mars fliegen können, zumindest die, die es sich leisten können. Auch Bostrom selbst stand in der Kritik: Er musste sich gerade für eine Jahrzehnte alte E-Mail entschuldigen, in der er behauptet hatte, “Schwarze sind dümmer als Weiße” und das N-Wort verwendete. Eine gute Zusammenfassung hat der Guardian veröffentlicht.
Was hat das mit “The New Social” zu tun? Die Entwicklung und Regulierung von KI ruft ganz ähnliche Debatten hervor wie die Regulierung der großen Plattformen. Einige Stimmen sagen: Lasst uns aufpassen, dass uns bei KI nicht dasselbe passiert wie Facebook, TikTok oder X-Twitter, dass Algorithmen vor allem kommerzielle Interessen stützen, aber der Gesellschaft am Ende schaden. Insofern braucht die KI-Entwicklung aus meiner Sicht ähnliche Ziele wie die Social-Media-Regulierung, darunter Transparenz, diskriminierungsfreie Algorithmen oder die Möglichkeit, Anbieter zu wechseln, ohne eigene Daten zu verlieren.