Chat-API
/api/chat
1
Tiefe
9
Chunks
0
Unterseiten
Chunks
| Index | Kategorie | Tokens | Status | Analysiert | Inhalt |
|---|---|---|---|---|---|
| #0 | API | 81 | synced | 20.12.2025 12:47 | RAG-basierter Chat mit Vektorsuche und LLM-Integration. Verwendet lokale Embeddings (Ollama), Vektor... |
| #1 | API | 105 | synced | 20.12.2025 12:47 | POST /api/v1/chat Content-Type: application/json { "question": "Was ist systemische Therapie?",... |
| #2 | API | 75 | synced | 20.12.2025 12:47 | { "answer": "Systemische Therapie ist ein psychotherapeutischer Ansatz...", "sources": [ ... |
| #3 | API | 159 | synced | 20.12.2025 12:47 | Die Chat-Funktionalität nutzt native PHP-Services (keine Python-Aufrufe mehr): 1. Embedding erstell... |
| #4 | API | 149 | synced | 20.12.2025 12:47 | Browser/Client ↓ ChatController (/src/Controller/) ↓ ChatService (/src/Infrastructure/AI... |
| #5 | API | 106 | synced | 20.12.2025 12:47 | Alle Services werfen RuntimeException bei Fehlern: try { $config = AIConfig::fromCredentialsFile... |
| #6 | API | 88 | synced | 20.12.2025 12:47 | FehlerUrsacheLösung Embedding generation failedOllama nicht erreichbarsystemctl status oll... |
| #7 | API | 101 | synced | 20.12.2025 12:48 | <form hx-post="/chat/message" hx-target="#chat-messages" hx-swap="beforeend"> <select n... |
| #8 | Chat-API | 61 | synced | 20.12.2025 12:48 | Die Modell-Auswahl wird im localStorage gespeichert und beim Seitenaufruf wiederhergestellt: // Spei... |