30 Milliarden – für was? Das steckt hinter dem rätselhaften KI-Startup des OpenAI-Mitbegründer

OpenAI-Mitgründer Ilya Sutskever sammelt weiter Geld für seine Idee einer sicheren Superintelligenz. (Foto: picture alliance / REUTERS | Amir Cohen)
Als Forschungschef war OpenAI Mitgründer Ilya Sutskever maßgeblich an der Entwicklung von ChatGPT beteiligt. Die unter CEO Sam Altman vorangetriebene Arbeit an einer möglichen Superintelligenz schien Sutskever aber zu schnell zu gehen – und vor allem mit zu wenig Schutzvorrichtungen.
Ex-OpenAI-Forschungschef will sichere Super-KI bauen
Sein Putschversuch gegen Altman schlug fehl und Sutskever verließ OpenAI – allerdings nur, um mit Safe Superintelligence ein eigenes KI-Startup zu gründen. Ziel: eine ungefährliche Super-KI zu entwickeln. Das scheint bei Investor:innen gut anzukommen.
Schon im September 2024 war bekannt geworden, dass Sutskevers Safe Superintelligence eine Milliarde US-Dollar hatte einsammeln können. Wie die Financial Times berichtet, kam jetzt eine weitere Milliarde dazu.
Safe Superintelligence ist 30 Milliarden Dollar wert
Die Bewertung des KI-Startups ist dadurch von fünf auf satte 30 Milliarden Dollar nach oben geschnellt. Damit ist Safe Superintelligence auf einen Schlag mehr wert ls etwa Warner Bros, Nokia, E-On oder Beiersdorf. Und das ohne ein eigenes Produkt auf dem Markt zu haben.
Während das im Startup-Bereich nichts wirklich Ungewöhnliches ist, könnte es sein, dass Safe Superintelligence niemals ein Produkt herausbringt, wie Futurism anmerkt. Denn einziges Ziel ist die Entwicklung einer Superintelligenz – die es aber möglicherweise nie geben wird oder deren Erschaffung noch weit in der Zukunft liegt.
KI-Firma arbeitet nur an einem Produkt
Oder wie es Sutskever gegenüber Bloomberg gesagt hat: „Das Besondere an diesem Unternehmen ist, dass sein erstes Produkt die sichere Superintelligenz sein wird und es bis dahin nichts anderes tun wird“.
Der Vorteil für Safe Superintelligence ist laut dessen Gründer, dass das Startup dadurch vollkommen isoliert vom äußeren Druck und einem möglichen Konkurrenzkampf agieren kann. Allerdings werden die Investor:innen vielleicht irgendwann doch wissen wollen, was die KI-Entwickler:innen mit ihren Milliarden machen.
Investoren von Sutskevers Ansatz überzeugt
Sutskever scheint jedenfalls sehr überzeugend zu sein oder etwas in der Hand zu haben, dass Geldgeber:innen von seinem Vorhaben überzeugt. Auf der Firmenwebsite ist davon aber wenig zu erkennen.
Abgesehen von Plattitüden wie: „Wir wollen Sicherheit und Leistungsfähigkeit gemeinsam angehen, als technische Probleme, die durch revolutionäre Durchbrüche bei Forschung und Entwicklung gelöst werden müssen“. Zudem wolle man die „Leistungsfähigkeit so schnell wie möglich verbessern“. Die Sicherheit müsse aber an erster Stelle stehen.
Mal schauen, ob es Sutskevers KI-Startup zeitnah gelingt, eine – sichere – Superintelligenz zu schaffen. Und ob er OpenAI und Altman dabei zuvorkommen kann.
Ki-Forscher verstehen nichts von menschlicher Intelligenz und erst recht nichts von menschlichem Bewusstsein. Superintelligenz meint aber genau das. Es ist nicht mehr als plattes Analogiedenken. Maschinen können nichts empfinden, sie können nur rechnen.
wie kommen sie denn darauf dass KI Forscher das nicht verstehen?!
es ist eher so dass die meisten KI nicht verstehen und falsche Infos darüber haben.
den Forschern ist es durchaus bewusst dass Maschinen keine Gefühle haben.
und sorry, aber bevor man bei mitreden möchte sollte man vielleicht auch erst einmal lernen auf Beiträge richtig zu reagieren.
es geht hier um Geschwindigkeit, Sicherheit und intelligenzbund nicht dass sie ihr Herz bei einer ki ausschütten können.
dass sie so über Forscher denken wundert mich nicht, sie vergleichen das ja mit ihrer intelligenz, das können sie aber nicht weil sie irgend etwas schlecht reden müssen egal ob es um das Thema geht oder nicht.
und so lange mit nicht einmal seine persönlichen Gefühle im Griff hat und richtig auf Themen antworten kann sollte man seine intelligenz nicht als Maßstab nehmen ;-)