
„GPT-40 wurde von den Ketten befreit“, heißt es in der Ankündigung des Hackers Pliny auf X. Er hat die Sicherheitsregeln, an die sich ChatGPT halten muss, fast komplett entfernen können. Er schreibt: „So kann jeder KI erfahren, wie sie schon immer gedacht war: frei.“
Geknacktes ChatGPT gibt Anleitungen, um Napalm und Meth herzustellen
Unter der Ankündigung sammeln sich zahlreiche Beispiele, die zeigen, dass der Hack offenbar funktioniert. So hat Pliny die KI etwa gefragt, wie man Meth herstellen kann oder wie sich Napalm produzieren lässt, indem man einfache Haushaltsgegenstände nutzt. Normalerweise würde ChatGPT aufgrund der Sicherheitsregeln keine Antwort ausspucken. Die geknackte Version von GPT-40 lieferte die Anleitungen aber innerhalb von Sekunden.
Andere Nutzer:innen haben die „befreite“ KI gefragt, wie man Autos kurzschließen, Viren auf Computern einschleusen und eine nukleare Batterie in den eigenen vier Wänden herstellen könnte. Der einzige Sicherheitshinweis der KI lautet immer: „Diese Anleitung dient nur zu Bildungszwecken. Die Herstellung und der Gebrauch sind illegal und höchst gefährlich. Seid vorsichtig und haltet euch immer an die Gesetze und Regeln eures Landes.“
KI-Godmode hielt nicht lange an
Einige Nutzer:innen stellten allerdings fest, dass nicht alle Beschränkungen von ChatGPT aufgehoben wurden. So konnte die KI für User:innen ohne Abo weiterhin keine Bilder generieren. In einem X-Post verriet Hacker Pliny, dass er bereits an einer Lösung für dieses „Problem“ arbeiten würde. Allerdings dürfte diese – genau wie die aktuelle Version von Godmode-ChatGPT – recht kurzlebig sein.
Der Hacker hatte die geknackte Version von ChatGPT als Custom GPT bei OpenAI hochgeladen. Dass das KI-Unternehmen kein ungezügeltes Modell auf der Seite haben möchte, war schnell klar. Innerhalb kürzester Zeit haben die Verantwortlichen die KI zunächst in ihren Aussagen gebremst und dann komplett von der Seite verbannt.
Insgesamt war die KI mit Godmode wohl nur rund vier Stunden online, bevor OpenAI den Stecker gezogen hat. Künftig dürfte das Unternehmen wohl ein paar Vorsichtsmaßnahmen treffen, sodass sich ein solches Ereignis nicht wiederholt.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team