Chunk #625

Aus: Chat-API (Index: 3)

159 Tokens
Synced Status
« Vorheriger (#2) Nächster (#4) »

Taxonomie

Kategorie API
Pfad API > Chat API > RAG Pipeline
Heading-Pfad Chat-API > Chat API > RAG-Pipeline

Entities

Name Typ
OllamaService SERVICE
QdrantService SERVICE
ClaudeService SERVICE
mxbai-embed-large TECHNOLOGY
ChatService SERVICE
tokens CONFIG
top-k CONFIG

Keywords

embedding vektor Suche kontext LLM Quellen

Inhalt

Die Chat-Funktionalität nutzt native PHP-Services (keine Python-Aufrufe mehr):

1. Embedding erstellen (OllamaService)
   question → mxbai-embed-large → [1024-dim vector]

2. Vektorsuche (QdrantService)
   vector → Qdrant :6333 → top-k similar chunks

3. Kontext aufbauen (ChatService)
   chunks → formatierter Kontext mit Quellenangaben
   max. 3000 tokens (~12000 chars)

4. LLM-Anfrage (ClaudeService oder OllamaService)
   system_prompt + rag_prompt + context → answer

5. Quellen extrahieren (ChatService)
   search_results → deduplizierte Quellen-Liste

6. Response zusammenstellen (ChatService)
   answer + sources + metadata + usage

Clean Content

Die Chat-Funktionalität nutzt native PHP-Services (keine Python-Aufrufe mehr):

```
`1. Embedding erstellen (OllamaService)
 question → mxbai-embed-large → [1024-dim vector]

2. Vektorsuche (QdrantService)
 vector → Qdrant :6333 → top-k similar chunks

3. Kontext aufbauen (ChatService)
 chunks → formatierter Kontext mit Quellenangaben
 max. 3000 tokens (~12000 chars)

4. LLM-Anfrage (ClaudeService oder OllamaService)
 system_prompt + rag_prompt + context → answer

5. Quellen extrahieren (ChatService)
 search_results → deduplizierte Quellen-Liste

6. Response zusammenstellen (ChatService)
 answer + sources + metadata + usage`
```

Metadaten

Analysiert am20.12.2025 12:47:50
Analyse-Modellgemma3:4b-it-qat
Embedding-Modellmxbai-embed-large
Qdrant-ID5233e480-12b6-493c-8ac2-ce7e940b81f5
Erstellt20.12.2025 12:34:42
Aktualisiert20.12.2025 12:53:41