OpenCode: KI-gestütztes Coding mit kostenlosen und lokalen LLMs


Bicycle

Die meisten KI-Coding-Assistenten sind eng an einen einzelnen Anbieter gekoppelt. Ein Wechsel bedeutet oft ein anderes Tool, eine andere Konfiguration oder verlorenen Kontext. OpenCode verfolgt einen anderen Ansatz: Es ist ein Open-Source, Terminal-basierter KI-Coding-Agent, der Modelle als austauschbar behandelt. Anbieter und Modell sind frei wählbar, und der Wechsel ist mitten in der Sitzung möglich - inklusive kostenloser und lokaler Optionen.

Wir haben verschiedene CLI-basierte Coding-Agenten evaluiert und beschreiben OpenCode hier gezielt wegen seiner Anbieterflexibilität. Dieser Post zeigt, was es bietet und wie wir es mit kostenlosen und lokalen LLMs einsetzen.

Wir haben bereits in einem älteren Post darüber gesprochen, wie OpenCode im Vergleich zu Claude Code abschneidet. Dieser Post geht tiefer auf OpenCode selbst ein: Was es bietet, wie man es mit kostenlosen und lokalen LLMs nutzt, und warum es für Teams wichtig ist, die Flexibilität wollen.

Was ist OpenCode?

OpenCode ist ein Open-Source CLI Coding Agent, geschrieben in Go. Es läuft im Terminal und bietet ein schönes TUI (Terminal User Interface).

Was macht OpenCode zu einem echten Agenten statt nur einem Chat-Interface? Zum einen versteht es die Codebasis und kann eigenständig durch Dateien navigieren. Darüber hinaus führt es Befehle selbstständig aus -- von Tests über Builds bis hin zu Linter- und Git-Operationen. Dabei schlägt es Änderungen vor und wendet sie nach Zustimmung an, wobei der Kontext über die gesamte Sitzung hinweg erhalten bleibt. Ein integriertes Tool-System ermöglicht außerdem Dateioperationen, Code-Suche und Bash-Ausführung, während die LSP-Integration für Code-Intelligenz in über 30 Sprachen wie TypeScript, Python, Rust und Go sorgt.

Installation

Zwei einfache Installationsmöglichkeiten für OpenCode sind:

1# Via curl
2curl -fsSL https://opencode.ai/install | bash
3
4# Via Homebrew
5brew install anomalyco/tap/opencode

Dann kann man opencode in einem beliebigen Projektverzeichnis ausführen, um eine Sitzung zu starten.

Die Anbieter-Landschaft: 75+ Optionen

OpenCode unterstützt eine breite Palette von KI-Anbietern über ein einheitliches Konfigurationssystem. Hier ein nicht vollständiger Überblick:

AnbieterModelleKosten
AnthropicClaude Sonnet/Opus/HaikuPay-per-use
OpenAIGPT-4.1, GPT-5, O3/O4Pay-per-use
GoogleGemini 2.5/3 Pro/FlashPay-per-use
GitHub CopilotGPT, Claude, Gemini-ModelleIm Copilot-Abo enthalten
GroqLlama 3Pay-per-use
OllamaJedes lokale ModellKostenlos (Ihre Hardware)
AWS BedrockClaude, LlamaPay-per-use
Azure OpenAIGPT-ModellePay-per-use
OpenRouter100+ ModellePay-per-use

Das Wichtige: Der Wechsel des Anbieters ändert nicht, wie man arbeitet. Dieselben Befehle, derselbe Workflow, dasselbe Interface - nur das "Gehirn" dahinter ändert sich.

Kostenlose LLM-Optionen

Man braucht keinen bezahlten API-Key, um OpenCode produktiv zu nutzen. Hier sind die wirklich kostenlosen Optionen:

1. GitHub Copilot (falls vorhanden)

Seit Januar 2026 unterstützt OpenCode die GitHub Copilot Integration. Wer ein Copilot-Abonnement hat (in vielen GitHub-Plänen enthalten, einschließlich der kostenlosen Stufe für einzelne Entwickler), kann es als Backend für OpenCode verwenden.

Kleiner Haken: Das kostenlose Token-Kontingent ist schnell weg. Etwa 30 Minuten bis zu 1 Stunde echter Coding-Arbeit, und das Monatslimit ist erreicht.

2. Ollama (kostenlos, privat)

Dies ist die Option, auf die wir uns in diesem Post konzentrieren und die sich in unser unternehmensinternes LLM-Endpunkt-Setup einfügt.

Ollama selbst ist kostenlos - aber "gratis" ist lokale Inferenz nicht wirklich: Man zahlt mit Hardware, Strom und dem Aufwand für Betrieb und Wartung. Dazu kommt: Immer die Lizenz des jeweiligen Modells im Blick behalten (das ist ein eigenes Thema und hier out of scope).

OpenCode + Ollama: Lokales KI-Coding

Ollama bietet eine OpenAI-kompatible API zum Ausführen von Open-Source-Modellen lokal. OpenCode verbindet sich nativ damit.

Konfiguration

Um OpenCode mit Ollama zu verwenden, können wir eine ~/.config/opencode/opencode.json erstellen oder bearbeiten:

 1{
 2  "$schema": "https://opencode.ai/config.json",
 3  "provider": {
 4    "ollama": {
 5      "npm": "@ai-sdk/openai-compatible",
 6      "name": "Ollama",
 7      "options": {
 8        "baseURL": "http://localhost:11434/v1"
 9      },
10      "models": {
11        "qwen2.5-coder:7b": {
12          "name": "Qwen 2.5 Coder 7B"
13        },
14        "mistral:latest": {
15          "name": "Mistral 7B"
16        },
17        "gemma3:latest": {
18          "name": "Gemma 3"
19        },
20        "qwen2.5-coder:1.5b": {
21          "name": "Qwen 2.5 Coder 1.5B (schnell)"
22        }
23      }
24    }
25  }
26}

Die BaseURL zeigt auf die Ollama-Instanz. Man verwendet localhost für lokal, oder eine erreichbare zentrale IP für einen gemeinsamen Team-Endpunkt.

Diese Konfiguration kann auch mit ollama launch opencode --config durchgeführt werden, um die Modelle direkt über Ollama zu starten.

Modellwechsel: Der Power Move

Eines der stärksten Features von OpenCode ist die Möglichkeit, Modelle mitten in der Sitzung zu wechseln. Das ermöglicht einen praktischen Workflow:

  1. Planen mit einem starken Reasoning-Modell (z.B. Claude oder GPT-4o via API)
  2. Ausführen mit einem schnellen, günstigen Modell (z.B. lokales Qwen 2.5 Coder oder Llama)
  3. Überprüfen komplexer Entscheidungen wieder mit dem Reasoning-Modell

In OpenCode wechselt man Modelle mit dem /models-Befehl während einer Sitzung. Der Konversationskontext bleibt erhalten.

Das ist besonders nützlich in einem Hybrid-Setup: Man nutzt den internen Ollama-Endpunkt des Unternehmens für 80% der Aufgaben, und wechselt nur bei Problemen, die Frontier-Modell-Reasoning brauchen, zu einer Cloud-API.

Wichtige Features im Detail

LSP-Integration

OpenCode verbindet sich mit Language-Server-Protocol-Servern, um Code über einfache Textanalyse hinaus zu verstehen. Die LSP-Server werden automatisch von OpenCode installiert und verwaltet – man muss sie nicht selbst hosten. Das bedeutet:

  • Genaue Symbolauflösung über Dateien hinweg
  • Diagnosen und Fehlerinformationen
  • Automatische Benachrichtigung bei Dateiänderungen
  • Unterstützung für 30+ Sprachen einschließlich TypeScript, Python, Rust, Go, Swift, Java, C/C++, PHP und Terraform

MCP (Model Context Protocol) Unterstützung

OpenCode unterstützt MCP - Anthropics Protokoll zur Verbindung von KI-Modellen mit externen Tools und Datenquellen. Das bedeutet:

  • Verbindung zu STDIO-basierten MCP-Servern (lokale Prozesse)
  • Verbindung zu HTTP/SSE-basierten MCP-Servern (Remote-Services)

Sitzungsmanagement

Konversationen werden lokal gespeichert. Man kann Sitzungen fortsetzen, vergangene Interaktionen überprüfen und Dateiänderungen über Sitzungen hinweg verfolgen.

Datenschutz

OpenCode speichert null Code- oder Kontextdaten auf externen Servern. Projektdaten gehen nur dorthin, wohin man sie sendet - zum LLM-Anbieter, den man konfiguriert. Mit Ollama bedeutet das: nirgendwohin ausserhalb des eigenen Rechners. Die optionale /share-Funktion zum Teilen von Konversationen ist standardmäßig im manuellen Modus und kann für sensible Projekte komplett deaktiviert werden.

Ein praktisches Beispiel

So sieht die Nutzung von OpenCode mit einem lokalen Ollama-Modell in der Praxis aus:

 1$ opencode
 2> /models ollama/qwen2.5-coder:7b
 3
 4> Die Tests in auth_test.go schlagen nach dem Refactoring fehl.
 5  Behebe sie und stelle sicher, dass sie bestehen.
 6
 7OpenCode wird:
 81. auth_test.go und zugehörige Quelldateien lesen
 92. `go test ./auth/...` ausführen, um die Fehler zu sehen
103. Die Fehlerausgabe analysieren
114. Korrekturen für die Testdatei vorschlagen
125. Die Änderungen anwenden (nach Zustimmung)
136. Die Tests erneut ausführen zur Verifikation
14
15> /models anthropic/claude-sonnet   # Wechsel zur Cloud für schwerere Aufgabe
16> Überprüfe jetzt die Architektur des Auth-Moduls.
17  Gibt es Sicherheitsbedenken beim aktuellen Ansatz?

Die zentrale Erkenntnis: Routineaufgaben (Tests fixen, refactoren, Boilerplate generieren) funktionieren gut mit lokalen Modellen. Komplexes Reasoning (Architektur-Review, Sicherheitsanalyse) profitiert von Frontier-Modellen. OpenCode lässt uns beides in derselben Sitzung nutzen.

Fazit

OpenCode bietet etwas Seltenes im KI-Coding-Tool-Bereich: echte Anbieterfreiheit. Man nutzt das beste Modell für jede Aufgabe, wechselt mitten in der Sitzung, und hält sich die Optionen offen, während sich die Modelllandschaft weiterentwickelt.

Kombiniert mit kostenlosen Optionen wie Ollama lässt sich ein produktiver KI-gestützter Coding-Workflow aufbauen, ohne sich an einen einzelnen Anbieter zu binden. Ob dieser Ansatz passt, hängt vom konkreten Kontext ab - Anforderungen an Modellqualität, Datenschutzvorgaben und wie wichtig Anbieterneutralität im eigenen Setup ist.

Zurück Unsere Trainings entdecken

Wir sind für Sie da

Sie interessieren sich für unsere Trainings oder haben einfach eine Frage, die beantwortet werden muss? Sie können uns jederzeit kontaktieren! Wir werden unser Bestes tun, um alle Ihre Fragen zu beantworten.

Hier kontaktieren