Chunk #391

Aus: Ollama (Index: 0)

54 Tokens
Synced Status

Taxonomie

Kategorie Software
Pfad Software > Runtime > KI
Heading-Pfad Ollama > Ollama

Entities

Name Typ
Ollama SERVICE
LLM-Runtime TECHNOLOGY
NVIDIA GPU TECHNOLOGY
KI-Modelle CONCEPT
Datenschutzkonforme KI CONCEPT

Keywords

Ollama LLM GPU Inferenz KI

Inhalt

Lokale LLM-Runtime für KI-Modelle. Nutzt die NVIDIA GPU für schnelle Inferenz ohne Cloud-Abhängigkeit. Ermöglicht datenschutzkonforme KI-Nutzung.

Version0.13.5
Port11434
Modelle/usr/share/ollama/.ollama/models

Clean Content

Lokale LLM-Runtime für KI-Modelle. Nutzt die NVIDIA GPU für schnelle Inferenz ohne Cloud-Abhängigkeit. Ermöglicht datenschutzkonforme KI-Nutzung.

 Version0.13.5

 Port11434

 Modelle/usr/share/ollama/.ollama/models

Metadaten

Analysiert am20.12.2025 12:36:01
Analyse-Modellgemma3:4b-it-qat
Embedding-Modellmxbai-embed-large
Qdrant-ID6f42d814-7708-408c-ae03-d59c04890919
Erstellt20.12.2025 12:34:42
Aktualisiert20.12.2025 12:53:35