Unterschiede zwischen den Revisionen 3 und 13 (über 10 Versionen hinweg)
Revision 3 vom 2025-07-12 11:08:33
Größe: 1534
Kommentar:
Revision 13 vom 2025-07-15 19:05:07
Größe: 2132
Kommentar:
Gelöschter Text ist auf diese Art markiert. Hinzugefügter Text ist auf diese Art markiert.
Zeile 2: Zeile 2:
Auf cogito (KI-Server) läuft ein ollama server, der einen OpenAI-API kompatiblen Endpunkt bereitstellt. Er ist unter https://buero.ping.de:11434/ erreichbar, man benötigt für den Zugriff ein Bearer Token. Auf cogito (KI-Server) läuft ein [[https://ollama.com|Ollama]]-server, der einen OpenAI-API kompatiblen Endpunkt bereitstellt. Er ist unter https://buero.ping.de:11434/ erreichbar, man benötigt für den Zugriff ein Bearer Token.
Zeile 5: Zeile 5:
 1. Im Brave Browser oben rechts auf das "Leo AI" Icon klicken (sieht aus wie ein großer und ein kleiner Stern)  1. Im Brave Browser oben rechts auf das "Leo AI" Icon {{attachment:Brave Leo AI Icon.png|Brave Leo AI Icon.png}} klicken.
Zeile 13: Zeile 13:
  * Kontext-Größe: `8192`
  * API-Schlüssel: Siehe Punkt 1. Ohne "Bearer" davor eingeben.
  * Kontext-Größe: `8192` (mehr geht auch, hängt vom LLM und freien VRAM ab).
  * API-Schlüssel: Siehe Punkt 1. Ohne "Bearer" davor eingeben.<<BR>> {{attachment:Brave Leo AI config.png|Brave Leo AI config.png}}
Zeile 18: Zeile 18:
Fertig. Wenn ihr jetzt auf den Leo-AI-Icon klickt startet eine neue Unterhaltung mit dem LLM auf dem PING Server cogito. Fertig. Wenn ihr jetzt auf das Leo-AI-Icon klickt startet eine neue Unterhaltung mit dem LLM auf dem PING Server cogito. Wenn ihr auf das "Seitenleiste anzeigen" Icon daneben klickt teilt sich das Browserfenster und ihr seht neben der Webseite das Leo AI Chatinterface, dort könnt ihr dann das LLM zur gerade aktiven Webseite befragen (zusammenfassen etc.).

Die KI von der Brave Search läuft davon unabhängig in der Cloud von Brave.
Zeile 21: Zeile 23:
Wenn ihr eine Liste aller installierten Modelle sehen möchtet dann geht das wie folgt (ihr benötigt die Befehle `curl` und `jq`): Wenn ihr eine Liste aller installierten Modelle sehen möchtet, dann könnt ihr das entweder in [[https://buero.ping.de|open-webui]] oder es geht über die Ollama API wie folgt (ihr benötigt die Befehle `curl` und `jq`):
Zeile 25: Zeile 27:
curl -s -H "Authorization: Bearer $BEARER_TOKEN" | jq curl -sH "Authorization: Bearer $BEARER_TOKEN" https://buero.ping.de:11434/api/tags | jq

Konfigurieren von Leo AI im Brave Browser mit dem PING AI Server

Auf cogito (KI-Server) läuft ein Ollama-server, der einen OpenAI-API kompatiblen Endpunkt bereitstellt. Er ist unter https://buero.ping.de:11434/ erreichbar, man benötigt für den Zugriff ein Bearer Token.

  1. Besorgt euch das Bearer Token
  2. Im Brave Browser oben rechts auf das "Leo AI" Icon Brave Leo AI Icon.png klicken.

  3. Klickt oben rechts auf die 3 Punkte übereinander "⋮"
  4. Klickt ganz unten auf "Erweiterte Einstellungen" (mit dem Zahnrad). Ihr landet dann auf brave://settings/leo-ai

  5. Unter "Bringen Sie Ihr eigenes Modell mit" klickt auf "Neues Modell hinzufügen"
  6. Macht folgende Einstellungen:
    • Beschriftung: ping-qwen3

    • Modellanfragename: qwen3:30b-a3b-q8_0 (diesen Namen seht ihr so auch im open-webui oder s.u.)

    • Server-Endpunkt: https://buero.ping.de:11434/v1/chat/completions

    • Kontext-Größe: 8192 (mehr geht auch, hängt vom LLM und freien VRAM ab).

    • API-Schlüssel: Siehe Punkt 1. Ohne "Bearer" davor eingeben.
      Brave Leo AI config.png

  7. Klickt auf "Modell speichern"
  8. Stellt das "Standardmodell für neue Unterhaltungen" auf ping-qwen3

Fertig. Wenn ihr jetzt auf das Leo-AI-Icon klickt startet eine neue Unterhaltung mit dem LLM auf dem PING Server cogito. Wenn ihr auf das "Seitenleiste anzeigen" Icon daneben klickt teilt sich das Browserfenster und ihr seht neben der Webseite das Leo AI Chatinterface, dort könnt ihr dann das LLM zur gerade aktiven Webseite befragen (zusammenfassen etc.).

Die KI von der Brave Search läuft davon unabhängig in der Cloud von Brave.

Verfügbare Modelle auflisten

Wenn ihr eine Liste aller installierten Modelle sehen möchtet, dann könnt ihr das entweder in open-webui oder es geht über die Ollama API wie folgt (ihr benötigt die Befehle curl und jq):

BEARER_TOKEN=bitte_erfragen
curl -sH "Authorization: Bearer $BEARER_TOKEN" https://buero.ping.de:11434/api/tags | jq

Anleitungen/Ollama-Brave-Leo-AI (zuletzt geändert am 2025-07-15 19:05:07 durch SvenNeuhaus)