Anzeige
Anzeige
News
Verpasse keine News mehr!

30 Milliarden – für was? Das steckt hinter dem rätselhaften KI-Startup des OpenAI-Mitbegründer

Im Mai 2024 hatte OpenAI-Mitgründer Ilya Sutskever nach einem fehlgeschlagenen Putschversuch gegen CEO Sam Altman ein eigenes KI-Startup gegründet. Das ist jetzt schon 30 Milliarden US-Dollar wert – ein Produkt wird es aber vielleicht nie geben.

2 Min.
Artikel merken
Anzeige
Anzeige

OpenAI-Mitgründer Ilya Sutskever sammelt weiter Geld für seine Idee einer sicheren Superintelligenz. (Foto: picture alliance / REUTERS | Amir Cohen)

Als Forschungschef war OpenAI Mitgründer Ilya Sutskever maßgeblich an der Entwicklung von ChatGPT beteiligt. Die unter CEO Sam Altman vorangetriebene Arbeit an einer möglichen Superintelligenz schien Sutskever aber zu schnell zu gehen – und vor allem mit zu wenig Schutzvorrichtungen.

Anzeige
Anzeige

Ex-OpenAI-Forschungschef will sichere Super-KI bauen

Sein Putschversuch gegen Altman schlug fehl und Sutskever verließ OpenAI – allerdings nur, um mit Safe Superintelligence ein eigenes KI-Startup zu gründen. Ziel: eine ungefährliche Super-KI zu entwickeln. Das scheint bei Investor:innen gut anzukommen.

Schon im September 2024 war bekannt geworden, dass Sutskevers Safe Superintelligence eine Milliarde US-Dollar hatte einsammeln können. Wie die Financial Times berichtet, kam jetzt eine weitere Milliarde dazu.

Anzeige
Anzeige

Safe Superintelligence ist 30 Milliarden Dollar wert

Die Bewertung des KI-Startups ist dadurch von fünf auf satte 30 Milliarden Dollar nach oben geschnellt. Damit ist Safe Superintelligence auf einen Schlag mehr wert ls etwa Warner Bros, Nokia, E-On oder Beiersdorf. Und das ohne ein eigenes Produkt auf dem Markt zu haben.

Während das im Startup-Bereich nichts wirklich Ungewöhnliches ist, könnte es sein, dass Safe Superintelligence niemals ein Produkt herausbringt, wie Futurism anmerkt. Denn einziges Ziel ist die Entwicklung einer Superintelligenz – die es aber möglicherweise nie geben wird oder deren Erschaffung noch weit in der Zukunft liegt.

Anzeige
Anzeige

KI-Firma arbeitet nur an einem Produkt

Oder wie es Sutskever gegenüber Bloomberg gesagt hat: „Das Besondere an diesem Unternehmen ist, dass sein erstes Produkt die sichere Superintelligenz sein wird und es bis dahin nichts anderes tun wird“.

Der Vorteil für Safe Superintelligence ist laut dessen Gründer, dass das Startup dadurch vollkommen isoliert vom äußeren Druck und einem möglichen Konkurrenzkampf agieren kann. Allerdings werden die Investor:innen vielleicht irgendwann doch wissen wollen, was die KI-Entwickler:innen mit ihren Milliarden machen.

Anzeige
Anzeige

Investoren von Sutskevers Ansatz überzeugt

Sutskever scheint jedenfalls sehr überzeugend zu sein oder etwas in der Hand zu haben, dass Geldgeber:innen von seinem Vorhaben überzeugt. Auf der Firmenwebsite ist davon aber wenig zu erkennen.

Abgesehen von Plattitüden wie: „Wir wollen Sicherheit und Leistungsfähigkeit gemeinsam angehen, als technische Probleme, die durch revolutionäre Durchbrüche bei Forschung und Entwicklung gelöst werden müssen“. Zudem wolle man die „Leistungsfähigkeit so schnell wie möglich verbessern“. Die Sicherheit müsse aber an erster Stelle stehen.

Apple Intelligence: In diesen 6 Fällen lag die KI daneben Quelle: Foto: Volodymyr TVERDOKHLIB/Shutterstock

Mal schauen, ob es Sutskevers KI-Startup zeitnah gelingt, eine – sichere – Superintelligenz zu schaffen. Und ob er OpenAI und Altman dabei zuvorkommen kann.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (2)

Community-Richtlinien

Wolfgang Stegemann

Ki-Forscher verstehen nichts von menschlicher Intelligenz und erst recht nichts von menschlichem Bewusstsein. Superintelligenz meint aber genau das. Es ist nicht mehr als plattes Analogiedenken. Maschinen können nichts empfinden, sie können nur rechnen.

Michael Rhein

wie kommen sie denn darauf dass KI Forscher das nicht verstehen?!
es ist eher so dass die meisten KI nicht verstehen und falsche Infos darüber haben.

den Forschern ist es durchaus bewusst dass Maschinen keine Gefühle haben.

und sorry, aber bevor man bei mitreden möchte sollte man vielleicht auch erst einmal lernen auf Beiträge richtig zu reagieren.
es geht hier um Geschwindigkeit, Sicherheit und intelligenzbund nicht dass sie ihr Herz bei einer ki ausschütten können.

dass sie so über Forscher denken wundert mich nicht, sie vergleichen das ja mit ihrer intelligenz, das können sie aber nicht weil sie irgend etwas schlecht reden müssen egal ob es um das Thema geht oder nicht.
und so lange mit nicht einmal seine persönlichen Gefühle im Griff hat und richtig auf Themen antworten kann sollte man seine intelligenz nicht als Maßstab nehmen ;-)

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige