OpenAI feilt am Feinschliff: Wie ChatGPT lernt, seine sprachlichen Marotten abzulegen

Was haben literarische Klassiker des 19. Jahrhunderts, penible Leser und moderne KI gemeinsam? Die Antwort ist ein unscheinbares Satzzeichen – der Geviertstrich. Jenes typografische Detail (—), das vielen gar nicht auffällt, ist längst zum Erkennungsmerkmal für KI-generierte Texte geworden. Nun macht OpenAI ernst: Mit ChatGPT 5.1 lässt sich der Gedankenstrich erstmals zuverlässig abstellen – wenn man es ausdrücklich verlangt.

Sam Altman, CEO von OpenAI, verkündete die Verbesserung mit hörbarem Stolz auf X: „Kleiner, aber feiner Erfolg“, schrieb er. „Wenn Sie ChatGPT sagen, es soll keine Gedankenstriche verwenden, tut es endlich das, was es soll.“ Eine beiläufige Randnotiz? Vielleicht. Doch sie sagt viel darüber aus, wie weit generative KI inzwischen in Richtung Präzision und Personalisierung vorgedrungen ist.

Denn der Verzicht auf ein einzelnes Satzzeichen ist weit mehr als ein stilistisches Detail. In den vergangenen Jahren hatten sich Sprachmodelle wie ChatGPT – ob absichtlich oder nicht – eine eigene Text-DNA angewöhnt. Der auffällige Gebrauch des Geviertstrichs war Teil davon. Einige Nutzer hielten ihn bereits für den „digitalen Fingerabdruck“ maschineller Autoren.

Der Ursprung liegt tief in den Trainingsdaten: Zahlreiche Quellen, auf denen ChatGPTs Sprachmodell basiert, stammen aus Zeiten, in denen der Gedankenstrich noch Hochkonjunktur hatte – etwa in klassischer Literatur. Das Modell hatte gelernt, was wahrscheinlich ist. Und tat genau das, was es mathematisch am besten kann: es wiederholen.

Doch genau hier lag das Problem. Ein Sprachmodell versteht nicht intuitiv, dass eine Nutzeranweisung – wie „Vermeide Gedankenstriche“ – eine höhere Priorität haben sollte als das statistisch wahrscheinlichste nächste Wort. Die Herausforderung für OpenAI bestand also darin, den inneren Automatismus der KI zu brechen.

Mit Version 5.1 scheint genau das nun gelungen zu sein. Benutzerdefinierte Anweisungen werden vom Modell stärker gewichtet, das stilistische Verhalten lässt sich genauer steuern. ChatGPT lernt – zumindest ein Stück weit – Disziplin.

Warum das wichtig ist? Weil generative KI damit nicht nur inhaltlich leistungsfähiger, sondern auch stilistisch kontrollierbarer wird. Denn am Ende entscheidet nicht nur was gesagt wird – sondern wie. Ein fehlender Gedankenstrich mag klein erscheinen. Aber er steht sinnbildlich für einen Wandel: weg vom generischen KI-Output, hin zu personalisierter Sprachintelligenz.

Alexander Pinker
Alexander Pinkerhttps://www.medialist.info
Alexander Pinker ist Innovation-Profiler, Zukunftsstratege und Medienexperte und hilft Unternehmen, die Chancen hinter Technologien wie künstlicher Intelligenz für die nächsten fünf bis zehn Jahre zu verstehen. Er ist Gründer des Beratungsunternehmens „Alexander Pinker – Innovation-Profiling“, der Agentur für Innovationsmarketing "innovate! communication" und der Nachrichtenplattform „Medialist Innovation“. Außerdem ist er Autor dreier Bücher und Dozent an der Technischen Hochschule Würzburg-Schweinfurt.

Ähnliche Artikel

Kommentare

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.

Follow us

FUTURing