31 Milliarden Parameter. Null Höflichkeit.
Ein Experiment in semantischer Kompression — weniger Tokens, gleiche Information, maximale Ironie.
Ein viraler Post zeigte: Wenn man ein großes Sprachmodell anweist, wie ein Höhlenmensch zu antworten — keine Artikel, keine Füllwörter, nur Kernbotschaft — spart man massiv Tokens. Weniger Tokens bedeuten schnellere Antworten, geringere Kosten, und oft sogar klarere Information.
Das hier ist die Umsetzung als echte App: Gemma-4 Caveman. Google's 31-Milliarden-Parameter-Modell, gezähmt durch einen System-Prompt, der Höflichkeit mit dem Aussterben bestraft.
Links: Wie ein normales LLM antwortet. Rechts: Höhlenmensch-Modus.
Gerne erkläre ich Ihnen, was ein Large Language Model ist. Es handelt sich dabei um ein neuronales Netz, das auf sehr großen Textmengen trainiert wird, um natürliche Sprache zu verstehen und zu generieren. Die zugrunde liegende Architektur ist in der Regel ein sogenannter Transformer...
LLM bedeuten großes Sprachmodell. Fressen riesige Textmengen. Vorhersagen nächstes Wort. Nutzen Transformer-Architektur.
Der System-Prompt erzwingt diese Gesetze. Bei Verstoß: Säbelzahntiger.
Pro Satz. Weniger = besser. Grunt gut.
der/die/das/ein — wegschmeißen wie faules Mammut.
„lernen" statt „lernt". Höhlenmensch nicht konjugieren können.
„Gerne" und „Sicher" = Schwäche = Aussterben.
Ergebnis zuerst. Keine Einleitungen. Kein Vorgeplänkel.
Kurze Sätze mit Verben statt Pfeil-Ketten.