{
"assistant_response": "## Ollama Vision Modelle - Alternativen\n\n### Lokal installiert\n| Modell | Größe | Status |\n|--------|-------|--------|\n| minicpm-v:latest | 5.5 GB | ✅ Aktiv |\n\n### Verfügbare Alternativen\n\n| Modell | Größe | VRAM | Speed | Qualität | Anwendung |\n|--------|-------|------|-------|----------|-----------|\n| **moondream** | 829 MB | ~1 GB | ⚡⚡⚡ | ★★☆ | Edge\/schnell, einfache OCR |\n| **llava:7b** | 4.5 GB | ~5 GB | ⚡⚡ | ★★★ | General-purpose OCR |\n| **llava:13b** | 8 GB | ~9 GB | ⚡ | ★★★★ | Bessere Qualität |\n| **minicpm-v** | 5.5 GB | ~6 GB | ⚡⚡ | ★★★★ | Hohe Auflösung (aktuell) |\n| **llama3.2-vision:11b** | ~7 GB | ~8 GB | ⚡ | ★★★★★ | Komplexe Dokumente |\n| **qwen2.5-vl** | varies | varies | ⚡⚡ | ★★★★ | OCR, Layout, Übersetzung |\n\n### Empfehlung für Parallelisierung\n\n**moondream** (829 MB) könnte **~20 parallele Sessions** ermöglichen:\n- 20 GB VRAM \/ 1 GB = 20 Instanzen theoretisch\n- Praktisch: 10-15 parallel realistisch\n\n```bash\nollama pull moondream\n```\n\n### Trade-off\n\n| Option | Speed | Qualität |\n|--------|-------|----------|\n| 1x minicpm-v (aktuell) | 1x | ★★★★ |\n| 10x moondream parallel | 10x | ★★☆ |\n\nSoll ich **moondream** installieren und testen?\n\nSources:\n- [Ollama Vision Models](https:\/\/ollama.com\/search?c=vision)\n- [Ollama Blog - Vision Models](https:\/\/ollama.com\/blog\/vision-models)\n- [Ollama-OCR Vision Models](https:\/\/deepwiki.com\/imanoop7\/Ollama-OCR\/7-vision-models)"
}