KI-Begriffe fliegen dir um die Ohren – LLM, Token, Prompt, Fine-Tuning – und du nickst höflich, obwohl du nur die Hälfte verstehst?
Keine Sorge. Du bist damit nicht allein. Deshalb habe ich dieses Glossar zusammengestellt: Alle wichtigen Begriffe, verständlich erklärt, ohne unnötiges Fachchinesisch.
Bookmark diese Seite. Du wirst sie brauchen.
A
AGI (Artificial General Intelligence)
Die große Vision: Eine KI, die alles kann, was ein Mensch kann. Lernen, verstehen, kreativ sein, Probleme lösen – egal in welchem Bereich. Manche Experten sagen, wir seien davon noch weit entfernt, während andere optimistischere Vorhersagen treffen.
AI Slop
Abwertender Begriff für minderwertige, massenhaft produzierte KI-Inhalte. Generische Blogposts, seelenlose Stockfotos mit sechs Fingern, YouTube-Videos mit roboterhafter Stimme – alles "Slop". Der Begriff entstand als Reaktion auf die Flut von KI-Content, der das Internet überschwemmt.
ASI (Artificial Superintelligence)
Der nächste Schritt nach AGI: Eine KI, die Menschen in allen Bereichen übertrifft – nicht nur gleichzieht. Wissenschaft, Kreativität, Strategie – alles.
Agentic AI / KI-Agenten
KI-Systeme, die autonom handeln können – nicht nur Fragen beantworten, sondern selbstständig Aufgaben erledigen. Ein KI-Agent kann im Internet recherchieren, E-Mails schreiben, Code ausführen und mehrere Schritte hintereinander planen. 2025/2026 gilt als "das Jahr der KI-Agenten". Beispiele: Claude mit Computer Use oder spezialisierte Coding-Agenten.
Alignment
Das Problem: Wie bringen wir einer KI bei, das zu tun, was wir wirklich wollen? Eine KI, die "maximiere die Büroklammer-Produktion" zu wörtlich nimmt, könnte theoretisch die ganze Welt in Büroklammern verwandeln. Alignment-Forschung sorgt dafür, dass KI menschliche Werte versteht und respektiert.
Anthropic
Das Unternehmen hinter Claude. Gegründet 2021 von ehemaligen OpenAI-Mitarbeitern, darunter Dario und Daniela Amodei. Bekannt für den Fokus auf KI-Sicherheit und "Constitutional AI" – ein Ansatz, bei dem die KI nach festgelegten Prinzipien trainiert wird.
API (Application Programming Interface)
Eine Schnittstelle, über die Programme miteinander kommunizieren. Wenn du eine App benutzt, die "im Hintergrund ChatGPT nutzt", dann kommuniziert diese App über APIs wie die OpenAI API mit den KI-Modellen. Du siehst die API nie – sie ist das unsichtbare Verbindungskabel.
Apple Intelligence
Apples KI-Funktionen, integriert in iOS, macOS und iPadOS. Fokus auf Privatsphäre: Viel läuft lokal auf dem Gerät, und wenn Cloud-KI nötig ist, nutzt Apple "Private Cloud Compute". Features: Schreibhilfen, Bildgenerierung, Siri-Verbesserungen. Apple setzt teils auf eigene Modelle, teils auf Partnerschaften (ChatGPT-Integration).
B
Benchmark
Ein standardisierter Test, um KI-Modelle zu vergleichen. Wie eine Klausur für KI. Wenn ein neues Modell erscheint, schauen alle zuerst auf die Benchmark-Ergebnisse. Vorsicht: Modelle können auf Benchmarks "übertrainiert" werden und trotzdem in der Praxis enttäuschen.
Bias
KI-Modelle lernen aus Daten. Wenn diese Daten Vorurteile enthalten (und das tun sie fast immer), übernimmt die KI diese Vorurteile. Ein Modell, das hauptsächlich mit englischen Texten trainiert wurde, versteht Englisch besser als Deutsch. Ein Modell, das hauptsächlich Bilder von weißen Menschen gesehen hat, erkennt andere Hautfarben schlechter. Bias ist eines der größten Probleme der KI-Entwicklung.
C
Chain of Thought (CoT)
Eine Technik, bei der die KI Schritt für Schritt "laut denkt", bevor sie eine Antwort gibt. Statt direkt "42" zu antworten, erklärt sie: "Erst rechne ich X, dann Y, also ist das Ergebnis 42." Das verbessert die Genauigkeit bei komplexen Aufgaben drastisch.
ChatGPT
Das bekannteste KI-Produkt von OpenAI. Eine Chat-Anwendung, die auf GPT-Modellen basiert. Du kannst Fragen stellen, Texte schreiben lassen, Bilder generieren, Gespräche führen, brainstormen – alles in einer Konversation.
Claude
Die KI von Anthropic und Konkurrent von ChatGPT. Viele Entwickler schwören auf Claude für komplexe Aufgaben.
Claude Code
Anthropics offizieller KI-Coding-Agent für das Terminal. Kann selbstständig Code lesen, schreiben, testen und mit Tools wie Git arbeiten. Läuft direkt in der Kommandozeile und arbeitet mit deinem lokalen Dateisystem. Konkurriert mit Cursor und GitHub Copilot.
Codex
OpenAIs Coding-Plattform – ursprünglich ein spezialisiertes Code-Modell, heute ein vollständiger KI-Coding-Agent. Die Codex CLI ist ein Open-Source-Tool (in Rust geschrieben), das direkt im Terminal läuft: Es liest dein Repo, editiert Dateien, führt Tests aus und kann sogar Code Reviews machen. Unter der Haube nutzt Codex inzwischen GPT-5.2-Codex, das speziell für agentenbasiertes Coding optimiert wurde. Codex unterstützt MCP (Model Context Protocol) für Drittanbieter-Tools, Web-Suche während der Arbeit, und kann mehrere Sub-Agenten gleichzeitig koordinieren. Installation: npm i -g @openai/codex oder brew install --cask codex.
Context Window (Kontextfenster)
Die Menge an Text, die ein KI-Modell gleichzeitig "sehen" kann. Aktuelle Modelle werben mit 128K bis 2 Millionen Tokens – aber mehr ist nicht automatisch besser. Das Grundproblem: LLMs sind im Kern Textvorhersage-Maschinen, keine Datenbanken.
Warum größer ≠ besser:
- Lost-in-the-Middle: Stanford-Forscher zeigten, dass Modelle Informationen am Anfang und Ende des Kontexts gut finden, aber Fakten in der Mitte übersehen. Genauigkeit fällt von ~75 % auf ~55 %.
- Context Rot: Je mehr Text im Fenster liegt, desto schlechter wird die Qualität. Die Aufmerksamkeit des Modells ist ein begrenztes Budget – jedes zusätzliche Token "verdünnt" sie.
- Context Drift: In langen Gesprächen "vergisst" das Modell frühere Anweisungen oder driftet vom Thema ab. Das liegt daran, dass es Muster vorhersagt, nicht logisch denkt.
Praxis-Tipp: Weniger, aber relevanter Kontext schlägt "alles reinwerfen". Techniken wie RAG (nur relevante Dokumente abrufen) oder intelligentes Context Management liefern bessere Ergebnisse als einfach das größte Kontextfenster zu nutzen.
Cursor
Ein KI-gestützter Code-Editor, der auf VS Code basiert. Versteht dein gesamtes Projekt und kann Code generieren, refactoren und erklären. Hat den "Vibe Coding"-Trend mitgeprägt. Nutzt verschiedene Modelle im Hintergrund. Einer der beliebtesten Tools für KI-gestützte Softwareentwicklung.
D
DeepSeek
Ein chinesisches KI-Unternehmen, das Anfang 2025 die KI-Welt erschütterte. Ihr R1-Modell nutzte einen radikal anderen Ansatz: Statt auf klassisches Supervised Fine-Tuning zu setzen, wurde R1 primär durch Reinforcement Learning trainiert – das Modell lernte eigenständig, Schritt für Schritt zu "denken". Die Ergebnisse waren vergleichbar mit OpenAIs o1.
Deep Learning
Eine Unterkategorie des maschinellen Lernens, die auf künstlichen neuronalen Netzen basiert. "Deep" bezieht sich auf die vielen Schichten dieser Netze. Praktisch alles, was wir heute "KI" nennen – Spracherkennung, Bildgenerierung, ChatGPT – basiert auf Deep Learning.
Diffusion Models
Die Technologie hinter Bildgeneratoren wie DALL-E, Midjourney und Stable Diffusion. Die Modelle lernen, indem sie Bilder Schritt für Schritt mit Rauschen zerstören und dann lernen, diesen Prozess umzukehren: aus Rauschen ein Bild zu erschaffen.
Distillation (Destillation)
Wissen von einem großen Modell auf ein kleineres übertragen. Das kleine "Schüler-Modell" lernt vom großen "Lehrer-Modell" und erreicht oft 80-90% der Leistung bei einem Bruchteil der Größe. So entstehen effiziente Modelle, die auf Smartphones oder lokalen Computern laufen können. Viele kleine Open-Source-Modelle sind destillierte Versionen größerer Modelle.
DSGVO / GDPR
Die Datenschutz-Grundverordnung – das europäische Datenschutzgesetz. Extrem relevant für KI: Wo werden deine Daten verarbeitet? Werden Gespräche zum Training verwendet? Viele Unternehmen brauchen DSGVO-konforme KI-Lösungen (europäische Server, keine Datennutzung fürs Training, Auftragsverarbeitungsverträge). OpenAI, Anthropic und andere bieten entsprechende Enterprise-Pläne.
E
Embedding
Eine Methode, um Wörter oder Texte als Zahlen darzustellen. Ähnliche Begriffe bekommen ähnliche Zahlen. "König" und "Königin" sind nah beieinander, "König" und "Apfel" weit entfernt. Das ermöglicht KI-Systeme, die Bedeutung von Texten zu verstehen, nicht nur die Buchstaben.
F
Fine-Tuning
Ein Basismodell wird mit eigenen Daten weiter trainieren, damit es für spezifische Aufgaben besser wird. Ein Unternehmen könnte ein Modell mit seinen Kundenservice-E-Mails fine-tunen, damit es im Firmenton antwortet.
Foundation Model
Die großen Basismodelle (GPT, Claude, etc.), auf denen alles andere aufbaut. Sie wurden mit riesigen Datenmengen trainiert und können dann für verschiedene Aufgaben angepasst werden.
G
Gemini
Googles KI-Modell, der Konkurrent zu OpenAI's GPT und Claude. Integriert in Google-Produkte wie Google Docs und Gmail. Früher hieß es "Bard".
GPT (Generative Pre-trained Transformer)
Die Modell-Familie von OpenAI. "Generative" bedeutet, dass sie Inhalte erzeugen können. "Pre-trained" bedeutet, dass sie auf riesigen Datenmengen vortrainiert wurden. "Transformer" ist die zugrundeliegende Architektur.
GPU (Graphics Processing Unit)
Grafikkarten – ursprünglich für Videospiele entwickelt, heute das Herzstück der KI-Revolution. GPUs können tausende Berechnungen parallel ausführen, perfekt für neuronale Netze. NVIDIA dominiert den Markt; ihre Chips sind so begehrt, dass Unternehmen Monate auf Lieferungen warten. Ohne GPUs kein modernes KI-Training.
Grok
Die KI von xAI (Elon Musks KI-Unternehmen). Integriert in X (Twitter) und bekannt für einen "rebellischeren" Ton mit weniger Einschränkungen als andere Modelle.
Guardrails
Sicherheitsmechanismen, die verhindern, dass eine KI unerwünschte Ausgaben produziert. Können auf verschiedenen Ebenen implementiert werden: im Modell selbst (Training), im System Prompt, oder als separate Filter-Schicht. Guardrails blockieren z.B. illegale Inhalte, Hassrede oder das Preisgeben von Firmengeheimnissen. Wichtig für Enterprise-Anwendungen.
H
Halluzination
Wenn eine KI selbstbewusst Dinge behauptet, die falsch sind. Sie "erfindet" Fakten, Zitate, sogar wissenschaftliche Studien. Das passiert, weil das Modell darauf trainiert ist, plausibel klingende Texte zu erzeugen – nicht unbedingt wahre. Immer kritisch prüfen!
I
Inference
Der Prozess, wenn ein trainiertes Modell tatsächlich benutzt wird. Wenn du ChatGPT eine Frage stellst, führt das Modell "Inference" durch – es wendet sein Gelerntes an, um eine Antwort zu generieren. Inference kostet Rechenleistung und damit Geld.
J
Jailbreaking
Versuche, die Sicherheitsbeschränkungen einer KI zu umgehen. Die Anbieter arbeiten ständig daran, solche Tricks zu blockieren.
L
Llama
Die Open-Source-Modellfamilie von Meta (Facebook). Kostenlos nutzbar und anpassbar.
LLM (Large Language Model)
Große Sprachmodelle – das, was wir umgangssprachlich "KI" nennen. OpenAI's GPT, Claude, Llama, Gemini – alles LLMs. Sie wurden auf gigantischen Textmengen trainiert und können Sprache verstehen und erzeugen. "Large" bezieht sich auf die Milliarden von Parametern (Zahlen), aus denen sie bestehen.
Lovable
Ein "AI App Builder" – du beschreibst in natürlicher Sprache, welche App du willst, und Lovable generiert funktionierenden Code mit UI. Teil der neuen Welle von No-Code/Low-Code-Tools, die Softwareentwicklung demokratisieren. Ähnliche Tools: Bolt, v0, Replit Agent.
M
Make (ehemals Integromat)
Eine visuelle Automatisierungsplattform. Du verbindest verschiedene Apps und Dienste per Drag-and-Drop zu "Szenarien": Wenn eine E-Mail reinkommt, extrahiere den Inhalt mit KI, speichere ihn in einer Datenbank, und schicke eine Slack-Nachricht. Mächtiges Tool für KI-Workflows ohne Programmierung. Konkurrenten: n8n, Zapier.
Midjourney
Einer der beliebtesten KI-Bildgeneratoren.
Modell
Im KI-Kontext: Das trainierte System, das Aufgaben erledigen kann. Ein "Modell" ist das Ergebnis von Training – Milliarden von Zahlen, die zusammen verstehen, wie Sprache funktioniert. GPT-5 ist ein Modell. Claude Opus 4 ist ein Modell.
MoE (Mixture of Experts)
Eine Architektur, bei der ein Modell aus vielen spezialisierten "Experten" besteht. Bei jeder Anfrage werden nur wenige Experten aktiviert – das spart Rechenleistung. Ein MoE-Modell mit 400 Milliarden Parametern nutzt vielleicht nur 17 Milliarden pro Anfrage. Llama 4, Mixtral und viele moderne Modelle nutzen MoE. Es ist der Grund, warum Modelle immer größer werden können, ohne dass die Kosten explodieren.
Multimodal
Ein Modell, das mit verschiedenen Medientypen umgehen kann – Text, Bilder, Audio, Video. GPT kann Bilder analysieren und Audio verarbeiten.
N
n8n
Eine Open-Source-Automatisierungsplattform, besonders beliebt für KI-Workflows. Du kannst sie selbst hosten oder die Cloud-Version nutzen. Verbindet hunderte Apps und hat native KI-Integrationen. Viele nutzen n8n, um eigene KI-Agenten zu bauen, ohne programmieren zu müssen.
Nano Banana
Googles viraler Bildgenerator (offiziell "Gemini 2.5 Flash Image"). Der Name entstand um 2:30 Uhr nachts als Insider-Witz – und blieb hängen. Im August 2025 tauchte "nano-banana" anonym auf der LMArena auf und erreichte sofort die höchste ELO-Bewertung aller Zeiten.
Natural Language Processing (NLP)
Der Oberbegriff für alles, was mit computergestützter Sprachverarbeitung zu tun hat. Übersetzung, Textanalyse, Chatbots – alles NLP.
Neural Network
Ein von Gehirnen inspiriertes Computersystem. Besteht aus verbundenen "Neuronen" (mathematische Funktionen), die Informationen verarbeiten. Die Basis von Deep Learning und damit praktisch aller modernen KI.
No-Code Tools
Software, mit der du ohne Programmierung Apps, Websites oder Automatisierungen erstellen kannst. Besonders relevant im KI-Zeitalter: Tools wie Make, n8n, Lovable oder Zapier ermöglichen komplexe KI-Workflows per Drag-and-Drop. Du brauchst kein Informatikstudium mehr, um KI produktiv einzusetzen.
NVIDIA
Das Unternehmen, das die KI-Revolution ermöglicht. NVIDIAs GPUs sind der Goldstandard für KI-Training und -Inference. Fast jedes große KI-Modell wurde auf NVIDIA-Hardware trainiert. Das macht NVIDIA zu einem der wertvollsten Unternehmen der Welt. CEO Jensen Huang ist eine Schlüsselfigur der KI-Industrie.
O
OCR (Optical Character Recognition)
Texterkennung in Bildern. Scannt ein Foto, PDF oder Screenshot und extrahiert den Text daraus. Früher eigenständige Software, heute in viele KI-Modelle integriert. GPT-5, Claude und andere multimodale Modelle können OCR "nebenbei" – du schickst ein Bild und fragst nach dem Text.
One-Shot Learning
Wie Few-Shot, aber mit nur einem einzigen Beispiel. "Hier ist eine Produktbeschreibung in meinem Stil. Schreib jetzt eine für dieses andere Produkt." Dass das überhaupt funktioniert, zeigt, wie gut moderne LLMs Muster erkennen.
OpenAI
Das Unternehmen hinter ChatGPT und GPT-5. Gegründet als Non-Profit, inzwischen eines der wertvollsten KI-Unternehmen der Welt.
Open Source
Software, deren Quellcode öffentlich ist und von jedem genutzt und verändert werden darf.
Orchestrierung (Orchestration)
Das Koordinieren mehrerer KI-Komponenten zu einem Gesamtsystem. Ein Orchestrierungs-Layer entscheidet: Welches Modell beantwortet diese Frage? Brauchen wir eine Websuche? Soll ein Agent aktiviert werden? Tools wie LangChain, n8n oder eigener Code übernehmen die Orchestrierung. Wichtig für komplexe KI-Anwendungen.
Overfitting
Wenn ein Modell seine Trainingsdaten quasi auswendig gelernt hat, statt allgemeine Muster zu erkennen. Es funktioniert perfekt auf bekannten Daten, versagt aber bei neuen. Wie ein Schüler, der Lösungen auswendig lernt statt das Prinzip zu verstehen.
P
Parameter
Die "Einstellknöpfe" eines Modells – Zahlen, die während des Trainings angepasst werden.
Post-Training
Alles, was nach dem Pre-Training kommt. Hier wird das "rohe" Modell verfeinert: RLHF (Feedback von Menschen), Sicherheitstraining, Instruction Tuning (auf Anweisungen reagieren lernen). Post-Training macht aus einem Textvorhersage-System einen hilfreichen Assistenten. Es ist der Grund, warum ChatGPT höflich antwortet statt einfach Text zu vervollständigen.
Pre-Training (Vortraining)
Die erste, aufwändigste Phase des Modelltrainings. Das Modell lernt auf riesigen Textmengen (Bücher, Websites, Code), das nächste Wort vorherzusagen. Dabei entwickelt es ein "Verständnis" von Sprache, Fakten und Logik. Pre-Training kostet dutzende Millionen Euro und dauert Monate auf tausenden GPUs. Danach folgt das Post-Training.
Prompt
Die Eingabe, die du einem KI-Modell gibst. Deine Frage, dein Befehl, dein Text. Ein guter Prompt führt zu besseren Ergebnissen.
Prompt Engineering
Die Kunst, Prompts so zu formulieren, dass man optimale Ergebnisse bekommt. Klingt simpel, ist aber eine echte Fähigkeit. Gute Prompt Engineers verdienen viel Geld.
Q
Quantisierung (Quantization)
Eine Technik, um Modelle kleiner und schneller zu machen. Statt Zahlen mit 32 Bit Genauigkeit zu speichern, nutzt man 16, 8 oder sogar 4 Bit. Das halbiert oder viertelt den Speicherbedarf. Ein 70B-Modell, das normalerweise 140 GB braucht, passt quantisiert auf eine 24-GB-Grafikkarte. Der Qualitätsverlust ist oft minimal. Formate wie GGUF und Methoden wie QLoRA machen Quantisierung zugänglich.
R
RAG (Retrieval-Augmented Generation)
Eine Technik, um KI-Halluzinationen zu reduzieren. Statt nur auf ihr Training zu vertrauen, durchsucht die KI erst relevante Dokumente und basiert ihre Antwort auf diesen Quellen. Wichtig für Unternehmensanwendungen, wo Genauigkeit zählt.
Reasoning Models (Denk-Modelle)
Modelle, die "nachdenken" bevor sie antworten – mittels Chain of Thought, die intern oft minutenlang laufen kann. Was Ende 2024 mit OpenAIs o1 als Nische begann, ist inzwischen zum Standard geworden: Praktisch alle neuen Frontier-Modelle können "reasonen".
Die wichtigsten Reasoning-Modelle:
- OpenAI o3 / o4-mini: o3 erreichte 91,6 % auf AIME (Mathe-Wettbewerb). o4-mini bietet ähnliche Leistung zu einem Bruchteil der Kosten.
- DeepSeek R1: Der Open-Source-Durchbruch. Vergleichbare Leistung zu o1, als Open Source veröffentlicht. Hat gezeigt, dass Reasoning via Reinforcement Learning ohne aufwändiges Supervised Fine-Tuning funktioniert.
- Claude (Extended Thinking): Anthropics Hybrid-Ansatz – Claude kann sowohl sofort als auch mit langem Nachdenken antworten, ohne Modellwechsel.
- Google Gemini "Deep Think": Googles Reasoning-Modus, eingeführt mit Gemini 3 (November 2025).
Warum das wichtig ist: Reasoning-Modelle markieren einen Paradigmenwechsel – statt nur mehr Trainingsdaten ("Pre-Training Scaling") wird jetzt auch die Rechenzeit beim Antworten skaliert ("Inference-Time Scaling"). Mehr Denkzeit = bessere Antworten. Allerdings gibt es auch Skepsis: Apple-Forscher argumentieren in "The Illusion of Thinking", dass auch Reasoning-Modelle nur Muster simulieren, ohne echtes Verständnis.
Reinforcement Learning from Human Feedback (RLHF)
So werden Modelle wie ChatGPT "erzogen". Menschen bewerten die Antworten des Modells, und das Modell lernt, Antworten zu bevorzugen, die gute Bewertungen bekommen. Das ist der Grund, warum ChatGPT höflich, hilfreich und vorsichtig ist.
S
Sora
OpenAIs Videogenerierungsmodell. Du beschreibst eine Szene, und Sora erstellt daraus ein realistisches Video. Mit Sora 2 (2025) kam synchronisierter Sound und eine TikTok-ähnliche App dazu. Der größte Konkurrent ist Googles Veo 3 (→ siehe Veo), das mit nativer Audio-Integration und 4K-Auflösung punktet. Weitere Konkurrenten: Runway Gen 4, Pika, Kling. Die Branche wächst rasant – große Studios integrieren KI-Video inzwischen in Standard-Workflows.
Speech-to-Text (STT)
Spracherkennung – gesprochene Sprache in Text umwandeln. OpenAIs Whisper ist das bekannteste Modell und kostenlos nutzbar. Die Grundlage für Diktierfunktionen, Transkription von Meetings und Podcasts, oder Sprachsteuerung.
Speech-to-Speech (STS)
Direkte Kommunikation von Sprache zu Sprache, ohne den Umweg über Text. ChatGPT kann das: Du sprichst, die KI "hört" die Nuancen deiner Stimme und antwortet direkt mit gesprochener Sprache – mit natürlichen Pausen, Emotionen und Unterbrechungen. Fühlt sich an wie ein echtes Gespräch.
Stable Diffusion
Ein Open-Source-Bildgenerator. Kann auf dem eigenen Computer laufen (mit guter Grafikkarte). Sehr flexibel und anpassbar, daher beliebt bei technisch versierten Nutzern.
Scaling Laws
Die Entdeckung, dass KI-Modelle vorhersehbar besser werden, wenn man sie größer macht: mehr Parameter, mehr Daten, mehr Rechenzeit. Diese "Skalierungsgesetze" haben den KI-Boom ausgelöst – plötzlich wusste man: Mehr investieren = bessere Ergebnisse.
Synthetische Daten (Synthetic Data)
Von KI generierte Trainingsdaten.
System Prompt
Versteckte Anweisungen, die der KI vor deinem eigentlichen Prompt gegeben werden. Entwickler nutzen System Prompts, um das Verhalten der KI zu steuern: "Du bist ein freundlicher Kundenservice-Assistent für eine Bank. Antworte immer auf Deutsch."
T
Temperature
Ein Einstellwert, der kontrolliert, wie "kreativ" oder "zufällig" die Ausgabe ist. Niedrige Temperature (0.1) = konsistent, vorhersehbar, gut für Fakten. Hohe Temperature (0.9) = kreativ, überraschend, manchmal wirr. Für die meisten Aufgaben ist 0.3-0.7 ein guter Bereich.
Text-to-Speech (TTS)
Text in gesprochene Sprache umwandeln. Moderne TTS-Modelle wie ElevenLabs oder OpenAIs TTS klingen täuschend menschlich – mit Emotionen, Pausen und natürlichem Rhythmus. Verwendet für Hörbücher, Video-Voiceovers, Accessibility und Sprachassistenten.
Token
Die Einheit, in der KI-Modelle Text verarbeiten. Nicht ganz ein Wort, nicht ganz ein Buchstabe. "Künstliche Intelligenz" sind etwa 6 Tokens. Wichtig, weil KI-APIs nach Tokens abrechnen.
Training
Der Prozess, bei dem ein Modell aus Daten lernt. GPT-5 wurde auf riesigen Mengen Text aus dem Internet trainiert – Bücher, Websites, Wikipedia, Code. Training ist extrem teuer: Das Training eines großen Modells kostet dutzende Millionen Euro an Rechenleistung.
Transformer
Die Architektur hinter praktisch allen modernen KI-Modellen. 2017 von acht Google-Brain-Forschern im Paper "Attention Is All You Need" vorgestellt (NeurIPS 2017). Der Durchbruch: Der Attention-Mechanismus erlaubt es, bei der Verarbeitung eines Wortes alle anderen Wörter im Text gleichzeitig zu berücksichtigen. Anders als die vorherigen RNN/LSTM-Architekturen kann der Transformer massiv parallel arbeiten, was das Training auf großen Datenmengen erst möglich machte. Ohne Transformer kein GPT, kein Claude, kein Gemini – und auch kein modernes Computer Vision oder Sprachsynthese. Fun Fact: Alle acht Autoren haben Google inzwischen verlassen und eigene Unternehmen gegründet.
V
Vibe Coding
Ein Begriff (geprägt von Andrej Karpathy), der beschreibt, wie man mit KI-Assistenten programmiert: Du beschreibst grob, was du willst, die KI generiert Code, du testest, gibst Feedback, und iterierst – ohne jede Zeile selbst zu verstehen. "Programmieren nach Gefühl". Kontrovers: Manche sehen es als Demokratisierung, andere als Risiko.
Vector Database
Eine Datenbank, die für Embeddings optimiert ist. Wichtig für RAG-Systeme. Ermöglicht schnelle Suche nach ähnlichen Bedeutungen, nicht nur nach identischen Wörtern.
Veo
Googles Videogenerierungsmodell (von DeepMind), der größte Konkurrent zu OpenAIs Sora. Veo 3, angekündigt auf der Google I/O 2025, setzt den aktuellen Standard: 4K-Videos mit nativ synchronisiertem Dialog, Musik und Umgebungsgeräuschen – alles aus einem einzigen Text-Prompt, ohne Nachbearbeitung. Das nachfolgende Veo 3.1 verbesserte die cineastische Qualität und kreative Steuerungsmöglichkeiten weiter. In Benchmarks übertrifft Veo 3.1 Sora 2, Runway Gen 4 und andere Konkurrenten bei der Umsetzung komplexer Multi-Element-Prompts. Die Preise sind allerdings hoch (bis zu 249 $/Monat, begrenzte Videos pro Tag).
W
Weights (Gewichte)
Die gelernten Zahlenwerte eines neuronalen Netzes, die bestimmen, wie stark einzelne Verbindungen zwischen Neuronen sind – vergleichbar mit Synapsen im Gehirn. Weights und Biases zusammen bilden die "Parameter" eines Modells. Während des Trainings werden sie Schritt für Schritt angepasst (via Backpropagation), bis das Modell gute Vorhersagen macht. Wenn jemand sagt "die Weights eines Modells herunterladen", meint er die Milliarden Zahlen, die das Modell ausmachen – also das gesamte "Wissen" des Modells in Zahlenform. Bei Open-Source-Modellen wie Llama oder DeepSeek R1 sind diese Weights öffentlich verfügbar.
X
xAI
Elon Musks KI-Unternehmen, gegründet 2023. Entwickelt die Grok-Modelle und hat Zugang zu Daten von X (Twitter). Bekannt für aggressive Skalierung – xAI betreibt eines der größten GPU-Cluster der Welt. Positioniert sich als "weniger zensierte" Alternative zu OpenAI.
Fazit
KI entwickelt sich rasant, und mit ihr das Vokabular. Diese Liste wird garantiert bald erweitert werden müssen. Aber für den Moment: Wenn du diese Begriffe verstehst, kannst du bei jedem KI-Gespräch mitreden.
Fehlt ein Begriff? Schreib mir – ich ergänzen ihn.


