WISSEN

LLM (Large Language Model)

Ein Large Language Model (LLM) ist ein KI-Modell mit Milliarden Parametern, trainiert auf große Textmengen, das natürliche Sprache verstehen und generieren kann. Die Grundlage moderner KI-Anwendungen wie ChatGPT, Claude oder Gemini.

LLM — das Fundament moderner KI-Anwendungen

Ein LLM (Large Language Model) ist ein KI-Modell, das auf riesige Mengen von Textdaten trainiert wurde und in der Lage ist, natürliche Sprache zu verstehen, zu generieren, zu übersetzen, zusammenzufassen und zu analysieren. „Large" bezieht sich auf die Anzahl der Modell-Parameter — typischerweise Milliarden bis Billionen.

LLMs sind die Grundlage moderner KI-Anwendungen wie ChatGPT, Claude, Gemini und Grok.

Die wichtigsten LLM-Familien 2026

AnbieterModell-FamilieStärken
AnthropicClaude (Opus 4.7, Sonnet 4.6, Haiku 4.5)Lange Kontexte, präzises Schreiben, Code
OpenAIGPT-5, GPT-4oTool-Use, Echtzeit-Multimodalität
GoogleGemini 2.5 (Pro, Flash, Ultra)Multimodal (Bild, Video, Audio), Grounding
MetaLlama 4Offen, lokal betreibbar
xAIGrok 3Echtzeit-X-Daten, Suche
PerplexitySonar (basiert auf Llama, eigene Verfeinerung)Web-Suche & Zitierung
MistralLarge 3, CodestralEU-Anbieter, offene Modelle

Wie ein LLM funktioniert (vereinfacht)

  1. Tokenisierung — Eingabetext wird in kleine Einheiten („Tokens") zerlegt.
  2. Vorhersage — Das Modell berechnet für jedes nachfolgende Token eine Wahrscheinlichkeitsverteilung über sein Vokabular.
  3. Sampling — Aus dieser Verteilung wird das wahrscheinlichste (oder ein temperaturgewichtetes) Token gewählt.
  4. Iteration — Schritt 2 und 3 wiederholen sich, bis der Output abgeschlossen ist.

Hinter dieser einfachen Sequenz steckt eine Transformer-Architektur mit Self-Attention-Mechanismus und Milliarden trainierter Gewichte.

Wichtige Begriffe rund um LLMs

  • Context Window — wie viel Text das Modell „auf einmal" verarbeiten kann (z. B. 200.000 Token bei Claude Opus 4.7, 2 Mio. bei Gemini 2.5).
  • Temperature — Steuert die Zufälligkeit der Ausgabe (0 = deterministisch, 1+ = kreativ).
  • System Prompt — Hintergrund-Anweisung, die das Verhalten des Modells für die gesamte Konversation prägt.
  • Few-Shot Prompting — Beispiele im Prompt mitliefern, damit das Modell ein gewünschtes Muster lernt.
  • Tool-Use / Function-Calling — Das Modell kann externe Funktionen aufrufen (Suche, Code-Ausführung, API-Calls).
  • RAG (Retrieval-Augmented Generation) — Externe Dokumente werden zur Anfragezeit in den Prompt eingespielt.

DSGVO und LLMs

LLM-Nutzung in der EU ist möglich und üblich, erfordert aber:

  • EU-Hosting oder „Zero Data Retention"-Verträge.
  • Auftragsverarbeitungsvertrag (AVV) mit dem LLM-Provider.
  • Anonymisierung sensibler Daten vor dem Prompt-Versand.
  • Optional lokale Modelle für besonders sensible Daten.

Verwandte Begriffe

  • KI-Workflow — die Anwendungs-Schicht über LLMs.
  • RAG — wie LLMs auf externes Wissen zugreifen können.
  • GEO — Optimierung darauf, in LLM-Antworten zitiert zu werden.
FAQ

Häufige Fragen

Ein LLM (Large Language Model) ist ein KI-Modell mit Milliarden bis Billionen Parametern, das auf riesige Textmengen trainiert wurde und natürliche Sprache verstehen, generieren, übersetzen und analysieren kann. Bekannte Beispiele sind GPT-5, Claude Opus 4.7, Gemini 2.5 und Grok.