{
"event": "PreToolUse",
"tool_name": "mcp__mcp-docs__docs_create",
"tool_input": {
"title": "RAG-Prozess",
"slug": "rag-prozess",
"parent_id": 91,
"description": "Dokumentation des gesamten RAG-Prozesses (Retrieval Augmented Generation) für Chat und Content Studio",
"content": "<h2>Überblick<\/h2>\n<p>Der RAG-Prozess (Retrieval Augmented Generation) bildet das Herzstück der KI-gestützten Wissensgenerierung. Er besteht aus zwei Phasen:<\/p>\n\n<h3>1. Indexierungsphase (Offline)<\/h3>\n<ul>\n<li><strong>Dokument-Import<\/strong> – PDF\/Text-Dokumente in die Pipeline laden<\/li>\n<li><strong>Chunking<\/strong> – Texte in semantische Einheiten zerlegen<\/li>\n<li><strong>Embedding-Generierung<\/strong> – Vektorrepräsentationen erstellen (Ollama)<\/li>\n<li><strong>Vektorspeicherung<\/strong> – Embeddings in Qdrant speichern<\/li>\n<\/ul>\n\n<h3>2. Abfragephase (Online)<\/h3>\n<ul>\n<li><strong>Anfrage-Embedding<\/strong> – Nutzerfrage in Vektor umwandeln<\/li>\n<li><strong>Ähnlichkeitssuche<\/strong> – Relevante Chunks in Qdrant finden<\/li>\n<li><strong>Kontext-Aufbau<\/strong> – Gefundene Chunks als Kontext formatieren<\/li>\n<li><strong>LLM-Generierung<\/strong> – Antwort mit Claude\/Ollama erzeugen<\/li>\n<\/ul>\n\n<h3>Anwendungsbereiche<\/h3>\n<table>\n<thead><tr><th>Anwendung<\/th><th>Beschreibung<\/th><th>Besonderheiten<\/th><\/tr><\/thead>\n<tbody>\n<tr><td>KI-Chat<\/td><td>Interaktive Wissensfragen<\/td><td>Session-basiert, Konversationshistorie<\/td><\/tr>\n<tr><td>Content Studio<\/td><td>Content-Generierung<\/td><td>Profile, Contracts, Struktur, Kritik-Runden<\/td><\/tr>\n<\/tbody>\n<\/table>\n\n<h3>Technologie-Stack<\/h3>\n<ul>\n<li><strong>Embedding-Modell:<\/strong> mxbai-embed-large (Ollama)<\/li>\n<li><strong>Vektordatenbank:<\/strong> Qdrant (1536 Dimensionen, Cosine-Similarity)<\/li>\n<li><strong>LLM:<\/strong> Claude API (Anthropic) oder lokale Ollama-Modelle<\/li>\n<li><strong>Pipeline:<\/strong> Python-Scripts in <code>\/var\/www\/scripts\/pipeline\/<\/code><\/li>\n<\/ul>\n\n<h3>Datenfluss-Diagramm<\/h3>\n<pre>\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\n│ Dokument │────▶│ Chunking │────▶│ Embedding │\n└─────────────┘ └──────────────┘ └──────┬──────┘\n │\n ▼\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\n│ Qdrant │◀────│ Speichern │◀────│ Vektor │\n└──────┬──────┘ └──────────────┘ └─────────────┘\n │\n │ (Indexierungsphase abgeschlossen)\n │\n ▼\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\n│ Anfrage │────▶│ Q-Embedding │────▶│ Suche │\n└─────────────┘ └──────────────┘ └──────┬──────┘\n │\n ▼\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\n│ Antwort │◀────│ LLM │◀────│ Kontext │\n└─────────────┘ └──────────────┘ └─────────────┘\n<\/pre>",
"status": "published",
"sort_order": 2
}
}
{
"tool_response": [
{
"type": "text",
"text": "{\n \"success\": true,\n \"doc\": {\n \"id\": 100,\n \"parent_id\": 91,\n \"slug\": \"rag-prozess\",\n \"path\": \"\/prozesse\/rag-prozess\",\n \"title\": \"RAG-Prozess\",\n \"description\": \"Dokumentation des gesamten RAG-Prozesses (Retrieval Augmented Generation) für Chat und Content Studio\",\n \"content\": \"<h2>Überblick<\/h2>\\n<p>Der RAG-Prozess (Retrieval Augmented Generation) bildet das Herzstück der KI-gestützten Wissensgenerierung. Er besteht aus zwei Phasen:<\/p>\\n\\n<h3>1. Indexierungsphase (Offline)<\/h3>\\n<ul>\\n<li><strong>Dokument-Import<\/strong> – PDF\/Text-Dokumente in die Pipeline laden<\/li>\\n<li><strong>Chunking<\/strong> – Texte in semantische Einheiten zerlegen<\/li>\\n<li><strong>Embedding-Generierung<\/strong> – Vektorrepräsentationen erstellen (Ollama)<\/li>\\n<li><strong>Vektorspeicherung<\/strong> – Embeddings in Qdrant speichern<\/li>\\n<\/ul>\\n\\n<h3>2. Abfragephase (Online)<\/h3>\\n<ul>\\n<li><strong>Anfrage-Embedding<\/strong> – Nutzerfrage in Vektor umwandeln<\/li>\\n<li><strong>Ähnlichkeitssuche<\/strong> – Relevante Chunks in Qdrant finden<\/li>\\n<li><strong>Kontext-Aufbau<\/strong> – Gefundene Chunks als Kontext formatieren<\/li>\\n<li><strong>LLM-Generierung<\/strong> – Antwort mit Claude\/Ollama erzeugen<\/li>\\n<\/ul>\\n\\n<h3>Anwendungsbereiche<\/h3>\\n<table>\\n<thead><tr><th>Anwendung<\/th><th>Beschreibung<\/th><th>Besonderheiten<\/th><\/tr><\/thead>\\n<tbody>\\n<tr><td>KI-Chat<\/td><td>Interaktive Wissensfragen<\/td><td>Session-basiert, Konversationshistorie<\/td><\/tr>\\n<tr><td>Content Studio<\/td><td>Content-Generierung<\/td><td>Profile, Contracts, Struktur, Kritik-Runden<\/td><\/tr>\\n<\/tbody>\\n<\/table>\\n\\n<h3>Technologie-Stack<\/h3>\\n<ul>\\n<li><strong>Embedding-Modell:<\/strong> mxbai-embed-large (Ollama)<\/li>\\n<li><strong>Vektordatenbank:<\/strong> Qdrant (1536 Dimensionen, Cosine-Similarity)<\/li>\\n<li><strong>LLM:<\/strong> Claude API (Anthropic) oder lokale Ollama-Modelle<\/li>\\n<li><strong>Pipeline:<\/strong> Python-Scripts in <code>\/var\/www\/scripts\/pipeline\/<\/code><\/li>\\n<\/ul>\\n\\n<h3>Datenfluss-Diagramm<\/h3>\\n<pre>\\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\\n│ Dokument │────▶│ Chunking │────▶│ Embedding │\\n└─────────────┘ └──────────────┘ └──────┬──────┘\\n │\\n ▼\\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\\n│ Qdrant │◀────│ Speichern │◀────│ Vektor │\\n└──────┬──────┘ └──────────────┘ └─────────────┘\\n │\\n │ (Indexierungsphase abgeschlossen)\\n │\\n ▼\\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\\n│ Anfrage │────▶│ Q-Embedding │────▶│ Suche │\\n└─────────────┘ └──────────────┘ └──────┬──────┘\\n │\\n ▼\\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\\n│ Antwort │◀────│ LLM │◀────│ Kontext │\\n└─────────────┘ └──────────────┘ └─────────────┘\\n<\/pre>\",\n \"status\": \"published\",\n \"sort_order\": 2,\n \"depth\": 1,\n \"created_at\": \"2025-12-24T09:41:17\",\n \"updated_at\": \"2025-12-24T09:41:17\"\n },\n \"message\": \"Dokument 'RAG-Prozess' erstellt mit ID 100\"\n}"
}
]
}