Zum Inhalt springen

Ollama Desktop-App – Bester kostenloser Ollama Client für Mac, Windows & Linux

Suchen Sie die beste Ollama Desktop-App? Askimo ist ein kostenloser, funktionsreicher Ollama Client mit einer leistungsstarken GUI zur Verwaltung lokaler KI-Modelle auf Mac, Windows und Linux. Im Gegensatz zum reinen Kommandozeilenansatz bietet Askimo einen schönen Ollama Desktop-Client mit erweiterten Funktionen für vollständige Privatsphäre und Offline-AI.

  • Beste Ollama GUI – Schönes Interface, keine Kommandozeile nötig
  • 100% Privat – Alle KI läuft lokal auf Ihrem Gerät
  • Plattformübergreifend – Funktioniert auf macOS, Windows und Linux
  • Mehrere KI-Modelle – Verwenden Sie Ollama zusammen mit OpenAI, Claude und mehr
  • Erweiterte Funktionen – Benutzerdefinierte Direktiven, RAG, Chat-Suche, Themes
  • Offline-fähig – KI-Modelle ohne Internetverbindung ausführen

Führen Sie KI-Modelle lokal mit Ollama aus – für vollständige Privatsphäre und Offline-Fähigkeiten.

  • Server-URL: Ollama Server-Endpunkt
    • Standard: http://localhost:11434
    • Remote: http://ihr-server:11434
  • Timeout: Verbindungs-Timeout (Standard: 120s)
  • Auto-pull Modelle: Modelle beim Auswählen automatisch herunterladen
  • Verfügbare Modelle: Automatisch aus Ihrer Ollama-Installation erkannt
  1. Ollama von ollama.ai installieren
  2. Ollama-Service starten
  3. Modell herunterladen: ollama pull llama2
  4. Askimo erkennt Ihren lokalen Ollama-Server automatisch
  5. Modell aus der Dropdown-Liste auswählen
  6. „Test Connection“ klicken zum Prüfen

Beliebte Modelle mit Ollama:

  • llama2 – Meta’s Llama 2
  • mistral – Mistral 7B
  • codellama – Llama für Code
  • phi – Microsofts Phi
  • gemma – Googles Gemma
  • qwen – Alibabas Qwen

Modell installieren:

Terminal-Fenster
ollama pull mistral

Verfügbare Modelle auflisten:

Terminal-Fenster
ollama list
  1. Menüliste klicken
  2. „Settings“ auswählen
  3. Zum Tab „AI Providers“ navigieren
  4. „Ollama“ aus der Provider-Liste wählen

Tastenkürzel: ⌘ + , (macOS) oder Ctrl + , (Windows/Linux) → „AI Providers“

Keine Verbindung zu Ollama?

  • Sicherstellen, dass der Ollama-Service läuft
  • Prüfen, ob Port 11434 erreichbar ist
  • Firewall-Einstellungen prüfen
  • Ollama-Service neu starten

Modell wird nicht angezeigt?

  • Modell vorher ziehen: ollama pull <model-name>
  • Modellauswahl in Askimo aktualisieren
  • Ollama Logs prüfen: ollama logs

Leistung ist langsam?

  • Kleinere Modelle verwenden (z. B. phi, gemma:2b)
  • Andere rechenintensive Anwendungen schließen
  • GPU-Beschleunigung nutzen
  • CPU/GPU-Auslastung während der Inferenz prüfen

Mit einem Remote-Ollama-Server verbinden:

  1. Ollama auf dem Remote-Server mit Netzwerkzugriff starten:
Terminal-Fenster
OLLAMA_HOST=0.0.0.0:11434 ollama serve
  1. In Askimo die Server-URL setzen:
http://Ihre-Server-IP:11434