{
"event": "PreToolUse",
"tool_name": "mcp__mcp-docs__docs_update",
"tool_input": {
"id": 100,
"content": "<h2>Überblick<\/h2>\n<p>Der RAG-Prozess (Retrieval Augmented Generation) bildet das Herzstück der KI-gestützten Wissensgenerierung. Er besteht aus zwei Phasen:<\/p>\n\n<h3>1. Indexierungsphase (Offline)<\/h3>\n<ul>\n<li><strong>Dokument-Import<\/strong> – PDF\/Text-Dokumente in die Pipeline laden<\/li>\n<li><strong>Chunking<\/strong> – Texte in semantische Einheiten zerlegen<\/li>\n<li><strong>Embedding-Generierung<\/strong> – Vektorrepräsentationen erstellen (Ollama)<\/li>\n<li><strong>Vektorspeicherung<\/strong> – Embeddings in Qdrant speichern<\/li>\n<\/ul>\n\n<h3>2. Abfragephase (Online)<\/h3>\n<ul>\n<li><strong>Anfrage-Embedding<\/strong> – Nutzerfrage in Vektor umwandeln<\/li>\n<li><strong>Ähnlichkeitssuche<\/strong> – Relevante Chunks in Qdrant finden<\/li>\n<li><strong>Kontext-Aufbau<\/strong> – Gefundene Chunks als Kontext formatieren<\/li>\n<li><strong>LLM-Generierung<\/strong> – Antwort mit Claude\/Ollama erzeugen<\/li>\n<\/ul>\n\n<h3>Anwendungsbereiche<\/h3>\n<table>\n<thead><tr><th>Anwendung<\/th><th>Beschreibung<\/th><th>Besonderheiten<\/th><\/tr><\/thead>\n<tbody>\n<tr><td>KI-Chat<\/td><td>Interaktive Wissensfragen<\/td><td>Session-basiert, Konversationshistorie<\/td><\/tr>\n<tr><td>Content Studio<\/td><td>Content-Generierung<\/td><td>Profile, Contracts, Struktur, Kritik-Runden<\/td><\/tr>\n<\/tbody>\n<\/table>\n\n<h3>Technologie-Stack<\/h3>\n<ul>\n<li><strong>Embedding-Modell:<\/strong> mxbai-embed-large (Ollama)<\/li>\n<li><strong>Vektordatenbank:<\/strong> Qdrant (1536 Dimensionen, Cosine-Similarity)<\/li>\n<li><strong>LLM:<\/strong> Claude API (Anthropic) oder lokale Ollama-Modelle<\/li>\n<li><strong>Pipeline:<\/strong> Python-Scripts in <code>\/var\/www\/scripts\/pipeline\/<\/code><\/li>\n<\/ul>\n\n<h3>Datenfluss-Diagramm<\/h3>\n<pre>\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\n│ Dokument │────▶│ Chunking │────▶│ Embedding │\n└─────────────┘ └──────────────┘ └──────┬──────┘\n │\n ▼\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\n│ Qdrant │◀────│ Speichern │◀────│ Vektor │\n└──────┬──────┘ └──────────────┘ └─────────────┘\n │\n │ (Indexierungsphase abgeschlossen)\n │\n ▼\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\n│ Anfrage │────▶│ Q-Embedding │────▶│ Suche │\n└─────────────┘ └──────────────┘ └──────┬──────┘\n │\n ▼\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\n│ Antwort │◀────│ LLM │◀────│ Kontext │\n└─────────────┘ └──────────────┘ └─────────────┘\n<\/pre>\n\n<h3>Unterkapitel: Indexierungsphase<\/h3>\n<ul>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/dokument-import\">Dokument-Import<\/a> – PDF\/Text-Dokumente in die Pipeline laden<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/chunking\">Chunking<\/a> – Texte in semantische Einheiten zerlegen<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/embedding-generierung\">Embedding-Generierung<\/a> – Vektoren via Ollama (mxbai-embed-large) erstellen<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/vektorspeicherung\">Vektorspeicherung<\/a> – Embeddings in Qdrant persistieren<\/li>\n<\/ul>\n\n<h3>Unterkapitel: Abfragephase<\/h3>\n<ul>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/anfrage-verarbeitung\">Anfrage-Verarbeitung<\/a> – Nutzerfrage in Query-Embedding umwandeln<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/aehnlichkeitssuche\">Ähnlichkeitssuche<\/a> – Semantische Suche in Qdrant (Cosine-Similarity)<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/kontext-aufbau\">Kontext-Aufbau<\/a> – Gefundene Chunks zu Prompt-Kontext formatieren<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/llm-generierung\">LLM-Generierung<\/a> – Antwort mit Claude oder Ollama generieren<\/li>\n<\/ul>\n\n<h3>Unterkapitel: Anwendungen<\/h3>\n<ul>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/chat-anwendung\">Chat-Anwendung<\/a> – RAG-Flow für den KI-Chat (Session-basiert, Echtzeit)<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/content-studio-anwendung\">Content-Studio-Anwendung<\/a> – RAG-Flow für Content Studio (Async, Profile, Kritik)<\/li>\n<\/ul>"
}
}
{
"tool_response": [
{
"type": "text",
"text": "{\n \"success\": true,\n \"doc\": {\n \"id\": 100,\n \"parent_id\": 91,\n \"slug\": \"rag-prozess\",\n \"path\": \"\/prozesse\/rag-prozess\",\n \"title\": \"RAG-Prozess\",\n \"description\": \"Dokumentation des gesamten RAG-Prozesses (Retrieval Augmented Generation) für Chat und Content Studio\",\n \"content\": \"<h2>Überblick<\/h2>\\n<p>Der RAG-Prozess (Retrieval Augmented Generation) bildet das Herzstück der KI-gestützten Wissensgenerierung. Er besteht aus zwei Phasen:<\/p>\\n\\n<h3>1. Indexierungsphase (Offline)<\/h3>\\n<ul>\\n<li><strong>Dokument-Import<\/strong> – PDF\/Text-Dokumente in die Pipeline laden<\/li>\\n<li><strong>Chunking<\/strong> – Texte in semantische Einheiten zerlegen<\/li>\\n<li><strong>Embedding-Generierung<\/strong> – Vektorrepräsentationen erstellen (Ollama)<\/li>\\n<li><strong>Vektorspeicherung<\/strong> – Embeddings in Qdrant speichern<\/li>\\n<\/ul>\\n\\n<h3>2. Abfragephase (Online)<\/h3>\\n<ul>\\n<li><strong>Anfrage-Embedding<\/strong> – Nutzerfrage in Vektor umwandeln<\/li>\\n<li><strong>Ähnlichkeitssuche<\/strong> – Relevante Chunks in Qdrant finden<\/li>\\n<li><strong>Kontext-Aufbau<\/strong> – Gefundene Chunks als Kontext formatieren<\/li>\\n<li><strong>LLM-Generierung<\/strong> – Antwort mit Claude\/Ollama erzeugen<\/li>\\n<\/ul>\\n\\n<h3>Anwendungsbereiche<\/h3>\\n<table>\\n<thead><tr><th>Anwendung<\/th><th>Beschreibung<\/th><th>Besonderheiten<\/th><\/tr><\/thead>\\n<tbody>\\n<tr><td>KI-Chat<\/td><td>Interaktive Wissensfragen<\/td><td>Session-basiert, Konversationshistorie<\/td><\/tr>\\n<tr><td>Content Studio<\/td><td>Content-Generierung<\/td><td>Profile, Contracts, Struktur, Kritik-Runden<\/td><\/tr>\\n<\/tbody>\\n<\/table>\\n\\n<h3>Technologie-Stack<\/h3>\\n<ul>\\n<li><strong>Embedding-Modell:<\/strong> mxbai-embed-large (Ollama)<\/li>\\n<li><strong>Vektordatenbank:<\/strong> Qdrant (1536 Dimensionen, Cosine-Similarity)<\/li>\\n<li><strong>LLM:<\/strong> Claude API (Anthropic) oder lokale Ollama-Modelle<\/li>\\n<li><strong>Pipeline:<\/strong> Python-Scripts in <code>\/var\/www\/scripts\/pipeline\/<\/code><\/li>\\n<\/ul>\\n\\n<h3>Datenfluss-Diagramm<\/h3>\\n<pre>\\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\\n│ Dokument │────▶│ Chunking │────▶│ Embedding │\\n└─────────────┘ └──────────────┘ └──────┬──────┘\\n │\\n ▼\\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\\n│ Qdrant │◀────│ Speichern │◀────│ Vektor │\\n└──────┬──────┘ └──────────────┘ └─────────────┘\\n │\\n │ (Indexierungsphase abgeschlossen)\\n │\\n ▼\\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\\n│ Anfrage │────▶│ Q-Embedding │────▶│ Suche │\\n└─────────────┘ └──────────────┘ └──────┬──────┘\\n │\\n ▼\\n┌─────────────┐ ┌──────────────┐ ┌─────────────┐\\n│ Antwort │◀────│ LLM │◀────│ Kontext │\\n└─────────────┘ └──────────────┘ └─────────────┘\\n<\/pre>\\n\\n<h3>Unterkapitel: Indexierungsphase<\/h3>\\n<ul>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/dokument-import\\\">Dokument-Import<\/a> – PDF\/Text-Dokumente in die Pipeline laden<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/chunking\\\">Chunking<\/a> – Texte in semantische Einheiten zerlegen<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/embedding-generierung\\\">Embedding-Generierung<\/a> – Vektoren via Ollama (mxbai-embed-large) erstellen<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/vektorspeicherung\\\">Vektorspeicherung<\/a> – Embeddings in Qdrant persistieren<\/li>\\n<\/ul>\\n\\n<h3>Unterkapitel: Abfragephase<\/h3>\\n<ul>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/anfrage-verarbeitung\\\">Anfrage-Verarbeitung<\/a> – Nutzerfrage in Query-Embedding umwandeln<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/aehnlichkeitssuche\\\">Ähnlichkeitssuche<\/a> – Semantische Suche in Qdrant (Cosine-Similarity)<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/kontext-aufbau\\\">Kontext-Aufbau<\/a> – Gefundene Chunks zu Prompt-Kontext formatieren<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/llm-generierung\\\">LLM-Generierung<\/a> – Antwort mit Claude oder Ollama generieren<\/li>\\n<\/ul>\\n\\n<h3>Unterkapitel: Anwendungen<\/h3>\\n<ul>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/chat-anwendung\\\">Chat-Anwendung<\/a> – RAG-Flow für den KI-Chat (Session-basiert, Echtzeit)<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/content-studio-anwendung\\\">Content-Studio-Anwendung<\/a> – RAG-Flow für Content Studio (Async, Profile, Kritik)<\/li>\\n<\/ul>\",\n \"status\": \"published\",\n \"sort_order\": 2,\n \"depth\": 1,\n \"created_at\": \"2025-12-24T09:41:17\",\n \"updated_at\": \"2025-12-24T09:47:37\"\n },\n \"message\": \"Dokument #100 aktualisiert\"\n}"
}
]
}