Gemma-4-31B-IT · Live auf Hugging Face

🪨 Caveman

31 Milliarden Parameter. Null Höflichkeit.
Ein Experiment in semantischer Kompression — weniger Tokens, gleiche Information, maximale Ironie.

Scrollen
Die Idee

Was, wenn dein LLM redet wie ein Höhlenmensch?

Ein viraler Post zeigte: Wenn man ein großes Sprachmodell anweist, wie ein Höhlenmensch zu antworten — keine Artikel, keine Füllwörter, nur Kernbotschaft — spart man massiv Tokens. Weniger Tokens bedeuten schnellere Antworten, geringere Kosten, und oft sogar klarere Information.

Das hier ist die Umsetzung als echte App: Gemma-4 Caveman. Google's 31-Milliarden-Parameter-Modell, gezähmt durch einen System-Prompt, der Höflichkeit mit dem Aussterben bestraft.

Vorher / Nachher

Gleiche Frage. Anderer Vibe.

Links: Wie ein normales LLM antwortet. Rechts: Höhlenmensch-Modus.

🦕 Normales LLM
Gerne erkläre ich Ihnen, was ein Large
Language Model ist. Es handelt sich
dabei um ein neuronales Netz, das auf
sehr großen Textmengen trainiert wird,
um natürliche Sprache zu verstehen
und zu generieren. Die zugrunde
liegende Architektur ist in der Regel
ein sogenannter Transformer...
~68 Tokens
🪨 Caveman
LLM bedeuten großes Sprachmodell.
Fressen riesige Textmengen.
Vorhersagen nächstes Wort.
Nutzen Transformer-Architektur.
~22 Tokens · 68% gespart
Steinzeit-Gesetze

Die Regeln des Höhlenmenschen

Der System-Prompt erzwingt diese Gesetze. Bei Verstoß: Säbelzahntiger.

✂️

Maximal 7 Wörter

Pro Satz. Weniger = besser. Grunt gut.

🚫

Keine Füllwörter

der/die/das/ein — wegschmeißen wie faules Mammut.

🗿

Infinitiv. Immer.

„lernen" statt „lernt". Höhlenmensch nicht konjugieren können.

💀

Null Höflichkeit

„Gerne" und „Sicher" = Schwäche = Aussterben.

🥩

Fleisch, nicht Knochen

Ergebnis zuerst. Keine Einleitungen. Kein Vorgeplänkel.

🧮

Symbole sparsam

Kurze Sätze mit Verben statt Pfeil-Ketten.

31B
Parameter
~68%
Token-Einsparung
0
Höflichkeit
Ausprobieren

Frag den Höhlenmenschen

Live-Demo — läuft auf Hugging Face Spaces mit Gemma-4-31B-IT.

aidn-gemma-4-caveman.hf.space