Unterschiede zwischen den Revisionen 17 und 18
Revision 17 vom 2026-01-09 13:31:35
Größe: 3398
Kommentar:
Revision 18 vom 2026-01-09 13:38:22
Größe: 3561
Kommentar:
Gelöschter Text ist auf diese Art markiert. Hinzugefügter Text ist auf diese Art markiert.
Zeile 3: Zeile 3:
Wie nutzt ihr Visual Studio Code und OpenCode mit dem PING KI Server?
Zeile 4: Zeile 5:
Wie nutzt ihr Visual Studio Code und OpenCode mit dem PING KI Server? Das geht wie folgt: Zunächst braucht ihr das Bearer Token. Das könnt ihr derzeit bei `weiterbildung erfragen. Dann geht es wie folgt:
Zeile 60: Zeile 61:
Zeile 62: Zeile 62:
Zeile 66: Zeile 65:
Zeile 71: Zeile 71:
Zeile 72: Zeile 73:
qwen3-coder:30b-a3b-q8_0  30.2 GB
devstral-small-2:24b-instruct-2512-q8_0  24.1 GB
nemotron-3-nano:30b-a3b-q8_0  31.2 GB
qwen3:30b-a3b-instruct-2507-q8_0  30.2 GB
gpt-oss:latest  12.8 GB
nomic-embed-text:latest  0.2 GB
gemma3:27b-it-q8_0  27.5 GB
qwen3-coder:30b-a3b-q8_0                30.2 GB
devstral-small-2:24b-instruct-2512-q8_0         24.1 GB
nemotron-3-nano:30b-a3b-q8_0            31.2 GB
qwen3:30b-a3b-instruct-2507-q8_0                30.2 GB
gpt-oss:latest          12.8 GB
nomic-embed-text:latest         0.2 GB
gemma3:27b-it-q8_0              27.5 GB
Zeile 80: Zeile 81:
Dann tragt die Modelle in die opencode.json Datei ein, in etwa wie so:
Zeile 81: Zeile 83:
Dann tragt die Modelle in die opencode.json Datei ein, in etwa wie so:
Zeile 83: Zeile 84:
Zeile 107: Zeile 107:
Zeile 109: Zeile 108:

Wenn ihr das nächste Mal OpenCode startet und /connect tippt könnt ihr nach "PING" suchen und solltet den Eintrag "Ollama (PING)" angezeigt bekommen.
Wenn euch dann das OpenCode nach dem API Key fragt, gibt bitte das Bearer Token ein, das ihr erfragen müsst.
Wenn ihr das nächste Mal OpenCode startet und /connect tippt könnt ihr nach "PING" suchen und solltet den Eintrag "Ollama (PING)" angezeigt bekommen. Wenn euch dann das OpenCode nach dem API Key fragt, gibt bitte das Bearer Token ein, das ihr erfragen müsst.

Visual Studio Code und OpenCode

Wie nutzt ihr Visual Studio Code und OpenCode mit dem PING KI Server?

Zunächst braucht ihr das Bearer Token. Das könnt ihr derzeit bei `weiterbildung erfragen. Dann geht es wie folgt:

Visual Studio Code

Cline Plugin

  1. In VS Code das Cline Plugin installieren. Achtet darauf dass es das blaue Checkmark hat:

    • cline1.png

  2. How will you use Cline? "Bring my own API key"

  3. API Provider: Ollama

  4. Custom base URL: https://buero.ping.de:11434

  5. Ollama API key: bitte_erfragen

  6. Model: devstral-small-2:24b-instruct-25112-q8_0

Fertig!

Kilo Code Plugin

  1. In VS Code das Kilo Code AI Agent Plugin installieren. Achtet darauf dass ihr kein falsches erwischt. Aktuell sieht es etwa so aus:

    • kilo code vs code.png

  2. Wählt "Use your own API key"
  3. API Provider: Ollama
  4. Base URL: https://buero.ping.de:11434

  5. API Key: bitte_erfragen

  6. Model Name: devstral-small-2:24b-instruct-25112-q8_0

Fertig!

Continue Plugin

Installiert das Continue Plugin in VS Code.

continue vs code.png

Nehmt folgende Config Datei. Tragt dort den API Key ein in der letzten Zeile.

name: Local Config
version: 1.0.0
schema: v1
models:
  - name: qwen3-coder
    provider: ollama
    model: qwen3-coder:30b-a3b-q8_0
    apiBase: https://buero.ping.de:11434
    roles:
    - chat
    - autocomplete
    - edit
    - apply
    - summarize
    defaultCompletionOptions:
      contextLength: 65000
    requestOptions:
      headers:
        Authorization: Bearer bitte_erfragen

OpenCode

Für OpenCode müsst ihr eine opencode.json Datei anlegen z.B. im Verzeichnis ~/.config/opencode/

Ermittelt welche Modelle der Server anbietet, die euch fürs Programmieren interessieren:

BEARER_TOKEN=bitte_erfragen
curl -sH "Authorization: Bearer $BEARER_TOKEN" https://buero.ping.de:11434/api/tags|jq -r '.models[]|"\(.name)\t\t\((.size/1024/1024/1024*10|floor)/10) GB"'

Aktueller Output: (2026-01):

qwen3-coder:30b-a3b-q8_0                30.2 GB
devstral-small-2:24b-instruct-2512-q8_0         24.1 GB
nemotron-3-nano:30b-a3b-q8_0            31.2 GB
qwen3:30b-a3b-instruct-2507-q8_0                30.2 GB
gpt-oss:latest          12.8 GB
nomic-embed-text:latest         0.2 GB
gemma3:27b-it-q8_0              27.5 GB

Dann tragt die Modelle in die opencode.json Datei ein, in etwa wie so:

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (PING)",
      "options": {
        "baseURL": "https://buero.ping.de:11434/v1"
      },
      "models": {
        "devstral-small-2:24b-instruct-2512-q8_0": {
          "name": "Devstral-Small-2 2512"
        },
        "qwen3-coder:30b-a3b-q8_0": {
          "name": "Qwen3-Coder 30B A3B Q8"
        },
        "gpt-oss:latest": {
          "name": "GPT-OSS 20B"
        }
      }
    }
  }
}

Wenn ihr das nächste Mal OpenCode startet und /connect tippt könnt ihr nach "PING" suchen und solltet den Eintrag "Ollama (PING)" angezeigt bekommen. Wenn euch dann das OpenCode nach dem API Key fragt, gibt bitte das Bearer Token ein, das ihr erfragen müsst.

Anleitungen/Ollama-VSCode (zuletzt geändert am 2026-01-09 19:05:06 durch SvenNeuhaus)