OpenAI-CMO Kate Rouch: So half ChatGPT ihr durch ihre Krebstherapie

KI-Tools wie ChatGPT werden längst nicht mehr nur für Recherche oder Problemlösung eingesetzt – immer häufiger fungieren sie auch als emotionale Begleiter. Dass das sogar in ernsten gesundheitlichen Situationen möglich ist, zeigt der Fall von Kate Rouch, Chief Marketing Officer bei OpenAI. Wie Business Insider berichtet, machte sie kürzlich öffentlich, dass sie an Brustkrebs erkrankt ist – und dabei nicht nur familiäre und berufliche Unterstützung erhielt, sondern auch auf die hauseigene KI zurückgriff.
ChatGPT als Stütze in einer schweren Zeit
In einem Post auf X schilderte Rouch, wie sie nur wenige Wochen nach ihrem Amtsantritt im Dezember die Diagnose erhielt – und parallel zu ihrer Krebstherapie weiter die Marketingabteilung des KI-Unternehmens leitete. Trotz der enormen Belastung habe sie sich vom Team bei OpenAI zu jeder Zeit unterstützt gefühlt. Rouch schreibt, sie wolle ihre Geschichte erzählen, um andere Frauen zu ermutigen, ihre Gesundheit ernst zu nehmen – besonders in einem hektischen Alltag zwischen Beruf und Familie.
Auch ChatGPT habe ihr geholfen, mit der Situation umzugehen. Die KI habe sie unter anderem dabei unterstützt, medizinische Informationen verständlich aufzubereiten, Nebenwirkungen der Behandlung zu managen und altersgerechte Erklärungen für ihre Kinder zu formulieren. Außerdem nutzte Rouch ChatGPT, um für sie personalisierte Meditationen zu erstellen.
Studien belegen emotionale Nutzung von KI
Rouchs Geschichte ist kein Einzelfall. Eine aktuelle Studie aus Japan zeigt: Rund 75 Prozent der Menschen, die in diesem Rahmen befragt wurde, gaben an, schon einmal Chatbots genutzt zu haben, um persönliche Ratschläge einzuholen. Etwa 39 Prozent empfinden Tools wie ChatGPT sogar als konstante, verlässliche Begleiter – ähnlich wie Freund:innen oder Familienmitglieder.
Diese Form der Nutzung hat viele Vorteile: Die Hemmschwelle, Sorgen oder Ängste zu teilen, ist bei einem Chatbot oft niedriger als bei Ärzt:innen oder Angehörigen. Zudem ist die KI rund um die Uhr verfügbar und reagiert schnell – was in akuten Krisensituationen entscheidend sein kann.
Wo die KI an ihre Grenzen stößt
Gleichzeitig warnen Expert:innen davor, die Fähigkeiten von KI-Tools zu überschätzen – vor allem bei medizinischen Fragen. Denn je leistungsfähiger die Modelle werden, desto häufiger treten Halluzinationen auf, also erfundene oder fehlerhafte Aussagen. Gerade bei ernsten Diagnosen oder Therapieentscheidungen sollten Nutzer:innen daher nicht allein auf KI vertrauen. Die Tools können emotionale Unterstützung bieten – aber keine medizinische Beratung ersetzen.