Ollama
/ki-system/ollama
1
Tiefe
1
Chunks
0
Unterseiten
Chunks
| Index | Kategorie | Tokens | Status | Analysiert | Inhalt |
|---|---|---|---|---|---|
| #0 | Software | 54 | synced | 20.12.2025 12:36 | Lokale LLM-Runtime für KI-Modelle. Nutzt die NVIDIA GPU für schnelle Inferenz ohne Cloud-Abhängig... |