Höflichkeit hat ihren Preis: Warum „Bitte“ und „Danke“ OpenAI Millionen kosten

Angemessen angesichts der Investorengelder? Sam Altman gibt sich flapsig. (Foto: photosince / Shutterstock)
Es ist eine kleine Geste, die für das KI-Unternehmen OpenAI aus San Francisco im US-Bundesstaat Kalifornien aber große Auswirkungen hat: Wenn Nutzer:innen in ihren Anfragen an ChatGPT „Bitte“ oder „Danke“ schreiben, verursacht das laut Sam Altman Kosten in Millionenhöhe.
Auf eine Nutzerfrage auf der Plattform X (früher Twitter), wie viel Geld OpenAI durch die Höflichkeit der User:innen bereits an Stromkosten verloren habe, antwortete Altman kürzlich: „Zig Millionen Dollar, gut angelegt – man weiß ja nie.“
Warum Höflichkeit Rechenleistung frisst
Auch wenn es trivial klingt: Jedes zusätzliche Wort in einem Prompt (Anweisung an die KI) bedeutet mehr Daten, die verarbeitet werden müssen. Mehr Verarbeitung erfordert mehr Rechenleistung und damit mehr Energie in den Rechenzentren.
Diese zusätzlichen Kosten durch Höflichkeitsfloskeln summieren sich bei Millionen von Anfragen täglich schnell auf. Altman scheint diese Ausgaben aber mit einem Augenzwinkern zu akzeptieren, vielleicht auch im Hinblick auf eine ungewisse KI-Zukunft.
Nett zur KI – aus Gewohnheit oder Kalkül?
Die Höflichkeit gegenüber Chatbots ist dabei weitverbreitet. Eine Umfrage aus dem letzten Jahr ergab, dass etwa zwei Drittel der US-Nutzer:innen angaben, nett zu ihren Chatbots zu sein. Über die Hälfte davon tat dies demnach aus Anstand, während ein kleinerer Teil angab, die KI für eine mögliche zukünftige KI-Überlegenheit wohlgesonnen stimmen zu wollen.
Der Experte Kurtis Beavers von Microsoft aus Redmond im US-Bundesstaat Washington, argumentiert sogar, dass höfliche Umgangsformen zu besseren, respektvolleren Ergebnissen führen können. Die KI spiegele oft den Ton und die Detailtiefe des Prompts wider, zitiert Futurism Beavers.
Der ökologische Fußabdruck der KI-Nutzung
Die Diskussion unterstreicht die oft übersehenen Kosten der KI-Nutzung. Der Betrieb von KI-Modellen wie ChatGPT ist enorm energieintensiv.
Eine Untersuchung der Washington Post in Zusammenarbeit mit Forscher:innen der University of California kam zu dem Schluss, dass allein das Generieren einer 100-Wörter-E-Mail über eine KI etwa 0,14 Kilowattstunden Strom benötigen kann. Das berichtet Business Energy UK. Auch wenn Höflichkeit nur einen kleinen Teil zu den Gesamtkosten beiträgt, verdeutlicht Altmans Kommentar die realen Ressourcenkosten hinter jeder einzelnen KI-Anfrage.
Analyse: Millionen für Manieren – PR oder Weitblick?
Sam Altmans lockere Antwort auf die Millionen-Kosten für ein „Bitte“ oder „Danke“ mag sympathisch wirken. Doch die vage Begründung „man weiß ja nie“ lässt aufhorchen – gerade angesichts der enormen Summe und der bekannten Umweltbelastung durch KI-Rechenzentren.
Ist die Aussage geschickte PR, um OpenAI als nahbar zu präsentieren und von realen Betriebskosten abzulenken? Oder verbirgt sich dahinter tatsächlich eine – wenn auch unausgesprochene – langfristige Überlegung zur Mensch-KI-Interaktion, deren Wert sich erst in Zukunft zeigt?
Letztlich wirft die Anekdote ein Schlaglicht auf eine wichtigere Debatte: die nach echter Transparenz über den Ressourcenhunger aktueller KI-Modelle. Es braucht eine Diskussion über nachhaltigere Ansätze und die tatsächlichen Kosten der KI-Revolution – jenseits von augenzwinkernden Kommentaren über digitale Umgangsformen.
Echter Journalismus hätte zum Thema Energie Nutzung ganz einfach recherchieren können das OpenAi die Azure Server von Microsoft nutzt. Und diese werden zum Großteil aus regenerativen Ressourcen versorgt. Einige versorgen sich sogar selbst.