LLM-Generierung (Phase A7)

Ziel

Erzeugung einer Antwort auf Basis des bereitgestellten Kontextes. Das LLM ist reiner Formulierer, kein Wissensproduzent.

Grundprinzip

Ablauf

  1. Prompt wird an das gewählte LLM übergeben
  2. LLM generiert Text innerhalb:
    • Token-Limit (max_tokens)
    • Temperature (Kreativität vs. Präzision)
    • Systemregeln (aus System-Prompt)
  3. Ausgabe wird nicht verändert oder nachbearbeitet

Modell-Konfiguration

ModellAnbieterEinsatz
Claude Sonnet 4Anthropic APIProduktion (Chat, Content)
Claude Opus 4.5Anthropic APIKomplexe Aufgaben
MistralOllama (lokal)Entwicklung, Tests
Gemma 2Ollama (lokal)Schnelle Aufgaben

API-Aufruf (Claude)

POST https://api.anthropic.com/v1/messages
{
  "model": "claude-sonnet-4-20250514",
  "max_tokens": 4096,
  "system": "Du bist ein hilfreicher Assistent...",
  "messages": [
    {"role": "user", "content": "[Kontext]\n...\n[Frage]\n..."}
  ]
}

Ergebnisartefakte

Beteiligte Komponenten

KomponentePfadFunktion
generate_response()pipeline/rag.pyLLM-Aufruf
AnthropicClientpipeline/llm_client.pyClaude API
OllamaClientpipeline/llm_client.pyLokale Modelle

Prüfbedingungen für Supervision