Chunk #625
Aus: Chat-API (Index: 3)
159
Tokens
Synced
Status
Taxonomie
| Kategorie | API |
|---|---|
| Pfad | API > Chat API > RAG Pipeline |
| Heading-Pfad | Chat-API > Chat API > RAG-Pipeline |
Entities
| Name | Typ |
|---|---|
| OllamaService | SERVICE |
| QdrantService | SERVICE |
| ClaudeService | SERVICE |
| mxbai-embed-large | TECHNOLOGY |
| ChatService | SERVICE |
| tokens | CONFIG |
| top-k | CONFIG |
Keywords
Inhalt
Die Chat-Funktionalität nutzt native PHP-Services (keine Python-Aufrufe mehr):
1. Embedding erstellen (OllamaService)
question → mxbai-embed-large → [1024-dim vector]
2. Vektorsuche (QdrantService)
vector → Qdrant :6333 → top-k similar chunks
3. Kontext aufbauen (ChatService)
chunks → formatierter Kontext mit Quellenangaben
max. 3000 tokens (~12000 chars)
4. LLM-Anfrage (ClaudeService oder OllamaService)
system_prompt + rag_prompt + context → answer
5. Quellen extrahieren (ChatService)
search_results → deduplizierte Quellen-Liste
6. Response zusammenstellen (ChatService)
answer + sources + metadata + usageClean Content
Die Chat-Funktionalität nutzt native PHP-Services (keine Python-Aufrufe mehr): ``` `1. Embedding erstellen (OllamaService) question → mxbai-embed-large → [1024-dim vector] 2. Vektorsuche (QdrantService) vector → Qdrant :6333 → top-k similar chunks 3. Kontext aufbauen (ChatService) chunks → formatierter Kontext mit Quellenangaben max. 3000 tokens (~12000 chars) 4. LLM-Anfrage (ClaudeService oder OllamaService) system_prompt + rag_prompt + context → answer 5. Quellen extrahieren (ChatService) search_results → deduplizierte Quellen-Liste 6. Response zusammenstellen (ChatService) answer + sources + metadata + usage` ```
Metadaten
| Analysiert am | 20.12.2025 12:47:50 |
|---|---|
| Analyse-Modell | gemma3:4b-it-qat |
| Embedding-Modell | mxbai-embed-large |
| Qdrant-ID | 5233e480-12b6-493c-8ac2-ce7e940b81f5 |
| Erstellt | 20.12.2025 12:34:42 |
| Aktualisiert | 20.12.2025 12:53:41 |