ChatGPT: Sich bei der KI bedanken, kann teuer werden

ChatGPT: Darum ist es schlecht, der KI bitte und danke zu sagen
Die einen pflegen einen nüchternen Umgangston mit einem KI-Chatbot wie ChatGPT, die anderen bevorzugen es, freundlich zu schreiben und sich für die Hilfe zu bedanken.
Letzteres ist zwar löblich und zeugt von einer guten Kinderstube, soll jedoch unnötig viel Strom verbrauchen und in Folge dessen aus finanzieller Sicht nicht sinnvoll sein.
"Bitte" und "Danke" sagen kostet zig Millionen
Wie viel Geld hat OpenAI in Form von Stromkosten einbüßen müssen, weil Nutzer den Chatbots "bitte" und "danke" sagen? Diese Frage stellte sich ein X-User und bekam prompt eine Antwort von Sam Altman, dem CEO von OpenAI. Angeblich würden Höflichkeitsfloskeln dem Unternehmen zig Millionen Dollar kosten. Der Verarbeitungsaufwand sei aufgrund der zusätzlichen Worte deutlich erhöht.
Einem Bericht von Entrepreneur zufolge erfordert das Senden einer Anfrage über ChatGPT zehn Mal mehr Energie als eine normale Google-Suchanfrage.
Für jede einzelne Anfrage fallen in den Serverzentralen große Mengen an elektrischer Energie an. Sowohl für die Verarbeitung der Anfrage, für die Datenübertragung als auch für die Kommunikation zwischen den Systemen. Moderne Rechenzentren sind mit leistungsstarken Servern ausgestattet, die einen erheblichen Energieverbrauch aufweisen. Jedes "Bitte" und "Danke" treibt jenen Verbrauch und in Folge dessen die Kosten in die Höhe.
Wie viel Strom verbraucht ChatGPT pro Anfrage?
Wie hoch der Stromverbrauch konkret ist, lässt sich schwer sagen, da viele Variablen (wie Rechenzentrum, Hardware, Umfang der Anfrage etc.) eine Rolle spielen.
Stellt man direkt an ChatGPT die Frage nach der elektrischen Leistung, so heißt es, dass ein einzelner Ladevorgang einer Anfrage in einem Modell wie GPT-4 einige Wattstunden (Wh) verbrauchen könnte. Eine grobe Zahl für eine einzelne Textanfrage könnte im Bereich von 0,1 bis 1 Wh liegen, was etwa dem Energieverbrauch einer kleinen LED-Lampe über einige Minuten entspricht.
Die Schätzung bezieht sich jedoch nur auf die Anfrage selbst und nicht auf den gesamten Prozess. Zwar ist der Verbrauch einer einzigen Textgenerierung im Vergleich zu den Gesamtressourcen, die für den Betrieb eines großen Sprachmodells wie GPT-4 notwendig sind, sehr gering, doch wenn man Millionen oder Milliarden von Anfragen verarbeitet, summiert sich der Verbrauch erheblich.
Höflich zur KI aus Selbstschutz?
Einer im Februar veröffentlichten Studie zufolge sind 67 Prozent der Befragten, die in den USA auf einen Chatbot zurückgreifen, höflich zu der Maschine. Fast jeder Fünfte sagt der KI "bitte" und "danke", um sich im Falle eines Roboter-Aufstands zu schützen.
Der Design Manager von Microsoft, Kurtis Beavers, merkte in einem Blogbeitrag an, dass "die Verwendung einer höflichen Sprache den Ton für die Reaktion" vorgibt. Getreu dem Motto: Wie man in den Wald hineinruft, so schallt es heraus.
Kommentare