{
"event": "PreToolUse",
"tool_name": "mcp__mcp-docs__docs_update",
"tool_input": {
"id": 100,
"content": "<nav class=\"breadcrumb\">\n <a href=\"\/docs\">Dokumentation<\/a> » <a href=\"\/docs\/prozesse\">Prozesse<\/a> » RAG-Prozess\n<\/nav>\n\n<h1>RAG-Prozess<\/h1>\n\n<section>\n <h2>Übersicht<\/h2>\n <p>Der RAG-Prozess (Retrieval Augmented Generation) bildet das Herzstück der KI-gestützten Wissensgenerierung.<\/p>\n <table>\n <tr><th>Embedding-Modell<\/th><td>mxbai-embed-large (Ollama)<\/td><\/tr>\n <tr><th>Vektordatenbank<\/th><td>Qdrant (1536 Dimensionen)<\/td><\/tr>\n <tr><th>LLM<\/th><td>Claude API \/ Ollama<\/td><\/tr>\n <tr><th>Pipeline<\/th><td>\/var\/www\/scripts\/pipeline\/<\/td><\/tr>\n <\/table>\n<\/section>\n\n<section>\n <h2>Indexierungsphase (Offline)<\/h2>\n <ul>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/dokument-import\">Dokument-Import<\/a> - PDF\/Text in Pipeline laden<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/chunking\">Chunking<\/a> - Texte in semantische Einheiten zerlegen<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/embedding-generierung\">Embedding-Generierung<\/a> - Vektorrepräsentationen erstellen<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/vektorspeicherung\">Vektorspeicherung<\/a> - Embeddings in Qdrant speichern<\/li>\n <\/ul>\n<\/section>\n\n<section>\n <h2>Abfragephase (Online)<\/h2>\n <ul>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/anfrage-verarbeitung\">Anfrage-Verarbeitung<\/a> - Nutzerfrage in Vektor umwandeln<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/aehnlichkeitssuche\">Ähnlichkeitssuche<\/a> - Relevante Chunks in Qdrant finden<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/kontext-aufbau\">Kontext-Aufbau<\/a> - Chunks als Kontext formatieren<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/llm-generierung\">LLM-Generierung<\/a> - Antwort mit Claude\/Ollama erzeugen<\/li>\n <\/ul>\n<\/section>\n\n<section>\n <h2>Anwendungen<\/h2>\n <ul>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/chat-anwendung\">KI-Chat<\/a> - Session-basiert, Konversationshistorie<\/li>\n <li><a href=\"\/docs\/prozesse\/rag-prozess\/content-studio\">Content Studio<\/a> - Profile, Contracts, Kritik-System<\/li>\n <\/ul>\n<\/section>\n\n<section>\n <h2>Datenfluss<\/h2>\n <pre>\nDokument → Chunking → Embedding → Qdrant\n ↓\nAnfrage → Query-Embedding → Suche → Kontext → LLM → Antwort\n <\/pre>\n<\/section>"
}
}
{
"tool_response": [
{
"type": "text",
"text": "{\n \"success\": true,\n \"doc\": {\n \"id\": 100,\n \"parent_id\": 91,\n \"slug\": \"rag-prozess\",\n \"path\": \"\/prozesse\/rag-prozess\",\n \"title\": \"RAG-Prozess\",\n \"description\": \"Dokumentation des gesamten RAG-Prozesses (Retrieval Augmented Generation) für Chat und Content Studio\",\n \"content\": \"<nav class=\\\"breadcrumb\\\">\\n <a href=\\\"\/docs\\\">Dokumentation<\/a> » <a href=\\\"\/docs\/prozesse\\\">Prozesse<\/a> » RAG-Prozess\\n<\/nav>\\n\\n<h1>RAG-Prozess<\/h1>\\n\\n<section>\\n <h2>Übersicht<\/h2>\\n <p>Der RAG-Prozess (Retrieval Augmented Generation) bildet das Herzstück der KI-gestützten Wissensgenerierung.<\/p>\\n <table>\\n <tr><th>Embedding-Modell<\/th><td>mxbai-embed-large (Ollama)<\/td><\/tr>\\n <tr><th>Vektordatenbank<\/th><td>Qdrant (1536 Dimensionen)<\/td><\/tr>\\n <tr><th>LLM<\/th><td>Claude API \/ Ollama<\/td><\/tr>\\n <tr><th>Pipeline<\/th><td>\/var\/www\/scripts\/pipeline\/<\/td><\/tr>\\n <\/table>\\n<\/section>\\n\\n<section>\\n <h2>Indexierungsphase (Offline)<\/h2>\\n <ul>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/dokument-import\\\">Dokument-Import<\/a> - PDF\/Text in Pipeline laden<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/chunking\\\">Chunking<\/a> - Texte in semantische Einheiten zerlegen<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/embedding-generierung\\\">Embedding-Generierung<\/a> - Vektorrepräsentationen erstellen<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/vektorspeicherung\\\">Vektorspeicherung<\/a> - Embeddings in Qdrant speichern<\/li>\\n <\/ul>\\n<\/section>\\n\\n<section>\\n <h2>Abfragephase (Online)<\/h2>\\n <ul>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/anfrage-verarbeitung\\\">Anfrage-Verarbeitung<\/a> - Nutzerfrage in Vektor umwandeln<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/aehnlichkeitssuche\\\">Ähnlichkeitssuche<\/a> - Relevante Chunks in Qdrant finden<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/kontext-aufbau\\\">Kontext-Aufbau<\/a> - Chunks als Kontext formatieren<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/llm-generierung\\\">LLM-Generierung<\/a> - Antwort mit Claude\/Ollama erzeugen<\/li>\\n <\/ul>\\n<\/section>\\n\\n<section>\\n <h2>Anwendungen<\/h2>\\n <ul>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/chat-anwendung\\\">KI-Chat<\/a> - Session-basiert, Konversationshistorie<\/li>\\n <li><a href=\\\"\/docs\/prozesse\/rag-prozess\/content-studio\\\">Content Studio<\/a> - Profile, Contracts, Kritik-System<\/li>\\n <\/ul>\\n<\/section>\\n\\n<section>\\n <h2>Datenfluss<\/h2>\\n <pre>\\nDokument → Chunking → Embedding → Qdrant\\n ↓\\nAnfrage → Query-Embedding → Suche → Kontext → LLM → Antwort\\n <\/pre>\\n<\/section>\",\n \"status\": \"published\",\n \"sort_order\": 2,\n \"depth\": 1,\n \"created_at\": \"2025-12-24T09:41:17\",\n \"updated_at\": \"2025-12-24T09:57:52\"\n },\n \"message\": \"Dokument #100 aktualisiert\"\n}"
}
]
}