{
"event": "PreToolUse",
"tool_name": "mcp__mcp-docs__docs_update",
"tool_input": {
"id": 100,
"content": "<nav class=\"breadcrumb\">\n <a href=\"\/docs\">Dokumentation<\/a> » <a href=\"\/docs\/prozesse\">Prozesse<\/a> » RAG-Prozess\n<\/nav>\n\n<h1>RAG-Prozess<\/h1>\n\n<section>\n <h2>Übersicht<\/h2>\n <p>Der RAG-Prozess (Retrieval Augmented Generation) bildet das Herzstück der KI-gestützten Wissensgenerierung.<\/p>\n <table>\n <tr><th>Embedding-Modell<\/th><td>mxbai-embed-large (Ollama)<\/td><\/tr>\n <tr><th>Vektordatenbank<\/th><td>Qdrant (1536 Dimensionen)<\/td><\/tr>\n <tr><th>LLM<\/th><td>Claude API \/ Ollama<\/td><\/tr>\n <tr><th>Pipeline<\/th><td>\/var\/www\/scripts\/pipeline\/<\/td><\/tr>\n <\/table>\n<\/section>\n\n<section>\n <h2>Phasen<\/h2>\n <h3>1. Indexierungsphase (Offline)<\/h3>\n <p>Dokumente werden importiert, in Chunks zerlegt, vektorisiert und in Qdrant gespeichert.<\/p>\n \n <h3>2. Abfragephase (Online)<\/h3>\n <p>Nutzeranfragen werden eingebettet, ähnliche Chunks gesucht, Kontext aufgebaut und an LLM übergeben.<\/p>\n<\/section>\n\n<section>\n <h2>Datenfluss<\/h2>\n <pre>\nDokument → Chunking → Embedding → Qdrant\n ↓\nAnfrage → Query-Embedding → Suche → Kontext → LLM → Antwort\n <\/pre>\n<\/section>"
}
}
{
"tool_response": [
{
"type": "text",
"text": "{\n \"success\": true,\n \"doc\": {\n \"id\": 100,\n \"parent_id\": 91,\n \"slug\": \"rag-prozess\",\n \"path\": \"\/prozesse\/rag-prozess\",\n \"title\": \"RAG-Prozess\",\n \"description\": \"Dokumentation des gesamten RAG-Prozesses (Retrieval Augmented Generation) für Chat und Content Studio\",\n \"content\": \"<nav class=\\\"breadcrumb\\\">\\n <a href=\\\"\/docs\\\">Dokumentation<\/a> » <a href=\\\"\/docs\/prozesse\\\">Prozesse<\/a> » RAG-Prozess\\n<\/nav>\\n\\n<h1>RAG-Prozess<\/h1>\\n\\n<section>\\n <h2>Übersicht<\/h2>\\n <p>Der RAG-Prozess (Retrieval Augmented Generation) bildet das Herzstück der KI-gestützten Wissensgenerierung.<\/p>\\n <table>\\n <tr><th>Embedding-Modell<\/th><td>mxbai-embed-large (Ollama)<\/td><\/tr>\\n <tr><th>Vektordatenbank<\/th><td>Qdrant (1536 Dimensionen)<\/td><\/tr>\\n <tr><th>LLM<\/th><td>Claude API \/ Ollama<\/td><\/tr>\\n <tr><th>Pipeline<\/th><td>\/var\/www\/scripts\/pipeline\/<\/td><\/tr>\\n <\/table>\\n<\/section>\\n\\n<section>\\n <h2>Phasen<\/h2>\\n <h3>1. Indexierungsphase (Offline)<\/h3>\\n <p>Dokumente werden importiert, in Chunks zerlegt, vektorisiert und in Qdrant gespeichert.<\/p>\\n \\n <h3>2. Abfragephase (Online)<\/h3>\\n <p>Nutzeranfragen werden eingebettet, ähnliche Chunks gesucht, Kontext aufgebaut und an LLM übergeben.<\/p>\\n<\/section>\\n\\n<section>\\n <h2>Datenfluss<\/h2>\\n <pre>\\nDokument → Chunking → Embedding → Qdrant\\n ↓\\nAnfrage → Query-Embedding → Suche → Kontext → LLM → Antwort\\n <\/pre>\\n<\/section>\",\n \"status\": \"published\",\n \"sort_order\": 2,\n \"depth\": 1,\n \"created_at\": \"2025-12-24T09:41:17\",\n \"updated_at\": \"2025-12-24T10:05:33\"\n },\n \"message\": \"Dokument #100 aktualisiert\"\n}"
}
]
}