Chunk #391
Aus: Ollama (Index: 0)
54
Tokens
Synced
Status
Taxonomie
| Kategorie | Software |
|---|---|
| Pfad | Software > Runtime > KI |
| Heading-Pfad | Ollama > Ollama |
Entities
| Name | Typ |
|---|---|
| Ollama | SERVICE |
| LLM-Runtime | TECHNOLOGY |
| NVIDIA GPU | TECHNOLOGY |
| KI-Modelle | CONCEPT |
| Datenschutzkonforme KI | CONCEPT |
Keywords
Inhalt
Lokale LLM-Runtime für KI-Modelle. Nutzt die NVIDIA GPU für schnelle Inferenz ohne Cloud-Abhängigkeit. Ermöglicht datenschutzkonforme KI-Nutzung.
| Version | 0.13.5 |
|---|---|
| Port | 11434 |
| Modelle | /usr/share/ollama/.ollama/models |
Clean Content
Lokale LLM-Runtime für KI-Modelle. Nutzt die NVIDIA GPU für schnelle Inferenz ohne Cloud-Abhängigkeit. Ermöglicht datenschutzkonforme KI-Nutzung. Version0.13.5 Port11434 Modelle/usr/share/ollama/.ollama/models
Metadaten
| Analysiert am | 20.12.2025 12:36:01 |
|---|---|
| Analyse-Modell | gemma3:4b-it-qat |
| Embedding-Modell | mxbai-embed-large |
| Qdrant-ID | 6f42d814-7708-408c-ae03-d59c04890919 |
| Erstellt | 20.12.2025 12:34:42 |
| Aktualisiert | 20.12.2025 12:53:35 |