Protokoll #23929
| ID | 23929 |
|---|---|
| Zeitstempel | 2025-12-27 15:34:17.198938 |
| Client | root |
| IP | Warning: Undefined array key "request_ip" in /var/www/dev.campus.systemische-tools.de/src/View/protokoll/show.php on line 13 Deprecated: htmlspecialchars(): Passing null to parameter #1 ($string) of type string is deprecated in /var/www/dev.campus.systemische-tools.de/src/View/protokoll/show.php on line 13 |
| Modell | claude-sonnet-4-20250514 |
| Status | completed |
| Tokens | 568 (Input: 0, Output: 0) |
| Dauer | 86 ms |
| Request-Zeit | Warning: Undefined array key "request_timestamp" in /var/www/dev.campus.systemische-tools.de/src/View/protokoll/show.php on line 18 |
| Response-Zeit | - |
Warning: Undefined array key "error_message" in /var/www/dev.campus.systemische-tools.de/src/View/protokoll/show.php on line 22
Request
{
"event": "PreToolUse",
"tool_name": "mcp__mcp-docs__docs_get",
"tool_input": {
"id": 17
}
}
Response
{
"tool_response": [
{
"type": "text",
"text": "{\n \"success\": true,\n \"doc\": {\n \"id\": 17,\n \"parent_id\": 16,\n \"slug\": \"ollama\",\n \"path\": \"\/ki-system\/ollama\",\n \"title\": \"Ollama\",\n \"description\": \"Lokale LLM-Runtime für KI-Modelle. Nutzt die NVIDIA GPU für schnelle Inferenz ohne Cloud-Abhängigkeit. Ermöglicht datenschutzkonforme KI-Nutzung.\",\n \"content\": \"<nav class=\\\"breadcrumb\\\">\\n <a href=\\\"\/docs\\\">Dokumentation<\/a> » <a href=\\\"\/docs\/ki-system\\\">KI-System<\/a> » Ollama\\n<\/nav>\\n\\n<h1>Ollama<\/h1>\\n<p>Lokale LLM-Runtime für KI-Modelle. Nutzt die NVIDIA GPU für schnelle Inferenz ohne Cloud-Abhängigkeit. Ermöglicht datenschutzkonforme KI-Nutzung.<\/p>\\n\\n<table>\\n <tr><th>Version<\/th><td>0.13.5<\/td><\/tr>\\n <tr><th>Port<\/th><td>11434<\/td><\/tr>\\n <tr><th>Modelle<\/th><td>\/usr\/share\/ollama\/.ollama\/models<\/td><\/tr>\\n<\/table>\\n\\n<h2>Installierte Modelle<\/h2>\\n<table>\\n <tr><th>Modell<\/th><th>Größe<\/th><th>Zweck<\/th><\/tr>\\n <tr><td>mxbai-embed-large<\/td><td>669 MB<\/td><td>Embeddings (1024 dim) für KI-System<\/td><\/tr>\\n <tr><td>mistral<\/td><td>4.4 GB<\/td><td>Chat, Analyse (7.2B)<\/td><\/tr>\\n <tr><td>llama3.2<\/td><td>2 GB<\/td><td>Schnelle Tasks (3.2B)<\/td><\/tr>\\n<\/table>\\n\\n<h2>Modell herunterladen<\/h2>\\n<pre><code>ollama pull mxbai-embed-large\\nollama pull mistral\\nollama pull llama3.2\\nollama list<\/code><\/pre>\\n\\n<h2>Modell ausführen<\/h2>\\n<pre><code>ollama run llama3.2<\/code><\/pre>\\n\\n<h2>API - Chat<\/h2>\\n<pre><code>curl http:\/\/localhost:11434\/api\/generate -d '{\\n \\\"model\\\": \\\"llama3.2\\\",\\n \\\"prompt\\\": \\\"Hallo!\\\"\\n}'<\/code><\/pre>\\n\\n<h2>API - Embeddings<\/h2>\\n<pre><code>curl http:\/\/localhost:11434\/api\/embeddings -d '{\\n \\\"model\\\": \\\"mxbai-embed-large\\\",\\n \\\"prompt\\\": \\\"Text zum Embedden\\\"\\n}'<\/code><\/pre>\\n\\n<h2>Befehle<\/h2>\\n<pre><code>systemctl status ollama\\nollama --version\\nollama list<\/code><\/pre>\",\n \"status\": \"published\",\n \"sort_order\": 1,\n \"depth\": 1,\n \"created_at\": \"2025-12-20T11:13:58\",\n \"updated_at\": \"2025-12-20T13:31:24\"\n }\n}"
}
]
}