Unterschiede zwischen den Revisionen 3 und 5 (über 2 Versionen hinweg)
Revision 3 vom 2025-07-12 11:08:33
Größe: 1534
Kommentar:
Revision 5 vom 2025-07-12 11:10:02
Größe: 1594
Kommentar:
Gelöschter Text ist auf diese Art markiert. Hinzugefügter Text ist auf diese Art markiert.
Zeile 2: Zeile 2:
Auf cogito (KI-Server) läuft ein ollama server, der einen OpenAI-API kompatiblen Endpunkt bereitstellt. Er ist unter https://buero.ping.de:11434/ erreichbar, man benötigt für den Zugriff ein Bearer Token. Auf cogito (KI-Server) läuft ein [[https://ollama.com|Ollama]]-server, der einen OpenAI-API kompatiblen Endpunkt bereitstellt. Er ist unter https://buero.ping.de:11434/ erreichbar, man benötigt für den Zugriff ein Bearer Token.
Zeile 25: Zeile 25:
curl -s -H "Authorization: Bearer $BEARER_TOKEN" | jq curl -s -H "Authorization: Bearer $BEARER_TOKEN" https://buero.ping.de:11434/api/tags | jq

Konfigurieren von Leo AI im Brave Browser mit dem PING AI Server

Auf cogito (KI-Server) läuft ein Ollama-server, der einen OpenAI-API kompatiblen Endpunkt bereitstellt. Er ist unter https://buero.ping.de:11434/ erreichbar, man benötigt für den Zugriff ein Bearer Token.

  1. Besorgt euch das Bearer Token
  2. Im Brave Browser oben rechts auf das "Leo AI" Icon klicken (sieht aus wie ein großer und ein kleiner Stern)
  3. Klickt oben rechts auf die 3 Punkte übereinander "⋮"
  4. Klickt ganz unten auf "Erweiterte Einstellungen" (mit dem Zahnrad). Ihr landet dann auf brave://settings/leo-ai

  5. Unter "Bringen Sie Ihr eigenes Modell mit" klickt auf "Neues Modell hinzufügen"
  6. Macht folgende Einstellungen:
    • Beschriftung: ping-qwen3

    • Modellanfragename: qwen3:30b-a3b-q8_0 (diesen Namen seht ihr so auch im open-webui oder s.u.)

    • Server-Endpunkt: https://buero.ping.de:11434/v1/chat/completions

    • Kontext-Größe: 8192

    • API-Schlüssel: Siehe Punkt 1. Ohne "Bearer" davor eingeben.
  7. Klickt auf "Modell speichern"
  8. Stellt das "Standardmodell für neue Unterhaltungen" auf ping-qwen3

Fertig. Wenn ihr jetzt auf den Leo-AI-Icon klickt startet eine neue Unterhaltung mit dem LLM auf dem PING Server cogito.

Verfügbare Modelle auflisten

Wenn ihr eine Liste aller installierten Modelle sehen möchtet dann geht das wie folgt (ihr benötigt die Befehle curl und jq):

BEARER_TOKEN=bitte_erfragen
curl -s -H "Authorization: Bearer $BEARER_TOKEN" https://buero.ping.de:11434/api/tags | jq

Anleitungen/Ollama-Brave-Leo-AI (zuletzt geändert am 2025-07-12 11:19:41 durch SvenNeuhaus)