LLM — das Fundament moderner KI-Anwendungen
Ein LLM (Large Language Model) ist ein KI-Modell, das auf riesige Mengen von Textdaten trainiert wurde und in der Lage ist, natürliche Sprache zu verstehen, zu generieren, zu übersetzen, zusammenzufassen und zu analysieren. „Large" bezieht sich auf die Anzahl der Modell-Parameter — typischerweise Milliarden bis Billionen.
LLMs sind die Grundlage moderner KI-Anwendungen wie ChatGPT, Claude, Gemini und Grok.
Die wichtigsten LLM-Familien 2026
| Anbieter | Modell-Familie | Stärken |
|---|---|---|
| Anthropic | Claude (Opus 4.7, Sonnet 4.6, Haiku 4.5) | Lange Kontexte, präzises Schreiben, Code |
| OpenAI | GPT-5, GPT-4o | Tool-Use, Echtzeit-Multimodalität |
| Gemini 2.5 (Pro, Flash, Ultra) | Multimodal (Bild, Video, Audio), Grounding | |
| Meta | Llama 4 | Offen, lokal betreibbar |
| xAI | Grok 3 | Echtzeit-X-Daten, Suche |
| Perplexity | Sonar (basiert auf Llama, eigene Verfeinerung) | Web-Suche & Zitierung |
| Mistral | Large 3, Codestral | EU-Anbieter, offene Modelle |
Wie ein LLM funktioniert (vereinfacht)
- Tokenisierung — Eingabetext wird in kleine Einheiten („Tokens") zerlegt.
- Vorhersage — Das Modell berechnet für jedes nachfolgende Token eine Wahrscheinlichkeitsverteilung über sein Vokabular.
- Sampling — Aus dieser Verteilung wird das wahrscheinlichste (oder ein temperaturgewichtetes) Token gewählt.
- Iteration — Schritt 2 und 3 wiederholen sich, bis der Output abgeschlossen ist.
Hinter dieser einfachen Sequenz steckt eine Transformer-Architektur mit Self-Attention-Mechanismus und Milliarden trainierter Gewichte.
Wichtige Begriffe rund um LLMs
- Context Window — wie viel Text das Modell „auf einmal" verarbeiten kann (z. B. 200.000 Token bei Claude Opus 4.7, 2 Mio. bei Gemini 2.5).
- Temperature — Steuert die Zufälligkeit der Ausgabe (0 = deterministisch, 1+ = kreativ).
- System Prompt — Hintergrund-Anweisung, die das Verhalten des Modells für die gesamte Konversation prägt.
- Few-Shot Prompting — Beispiele im Prompt mitliefern, damit das Modell ein gewünschtes Muster lernt.
- Tool-Use / Function-Calling — Das Modell kann externe Funktionen aufrufen (Suche, Code-Ausführung, API-Calls).
- RAG (Retrieval-Augmented Generation) — Externe Dokumente werden zur Anfragezeit in den Prompt eingespielt.
DSGVO und LLMs
LLM-Nutzung in der EU ist möglich und üblich, erfordert aber:
- EU-Hosting oder „Zero Data Retention"-Verträge.
- Auftragsverarbeitungsvertrag (AVV) mit dem LLM-Provider.
- Anonymisierung sensibler Daten vor dem Prompt-Versand.
- Optional lokale Modelle für besonders sensible Daten.
Verwandte Begriffe
- KI-Workflow — die Anwendungs-Schicht über LLMs.
- RAG — wie LLMs auf externes Wissen zugreifen können.
- GEO — Optimierung darauf, in LLM-Antworten zitiert zu werden.