Harness Engineering: Warum der Rahmen wichtiger ist als das Modell
Ich habe drei Iterationen gebraucht, um ein einfaches Feature in zwei Repos zu implementieren. Nicht weil das Modell schlecht war — dasselbe Modell, dieselbe

Die meisten KI-Coding-Assistenten sind eng an einen einzelnen Anbieter gekoppelt. Ein Wechsel bedeutet oft ein anderes Tool, eine andere Konfiguration oder verlorenen Kontext. OpenCode verfolgt einen anderen Ansatz: Es ist ein Open-Source, Terminal-basierter KI-Coding-Agent, der Modelle als austauschbar behandelt. Anbieter und Modell sind frei wählbar, und der Wechsel ist mitten in der Sitzung möglich - inklusive kostenloser und lokaler Optionen.
Wir haben verschiedene CLI-basierte Coding-Agenten evaluiert und beschreiben OpenCode hier gezielt wegen seiner Anbieterflexibilität. Dieser Post zeigt, was es bietet und wie wir es mit kostenlosen und lokalen LLMs einsetzen.
Wir haben bereits in einem älteren Post darüber gesprochen, wie OpenCode im Vergleich zu Claude Code abschneidet. Dieser Post geht tiefer auf OpenCode selbst ein: Was es bietet, wie man es mit kostenlosen und lokalen LLMs nutzt, und warum es für Teams wichtig ist, die Flexibilität wollen.
OpenCode ist ein Open-Source CLI Coding Agent, geschrieben in Go. Es läuft im Terminal und bietet ein schönes TUI (Terminal User Interface).
Was macht OpenCode zu einem echten Agenten statt nur einem Chat-Interface? Zum einen versteht es die Codebasis und kann eigenständig durch Dateien navigieren. Darüber hinaus führt es Befehle selbstständig aus -- von Tests über Builds bis hin zu Linter- und Git-Operationen. Dabei schlägt es Änderungen vor und wendet sie nach Zustimmung an, wobei der Kontext über die gesamte Sitzung hinweg erhalten bleibt. Ein integriertes Tool-System ermöglicht außerdem Dateioperationen, Code-Suche und Bash-Ausführung, während die LSP-Integration für Code-Intelligenz in über 30 Sprachen wie TypeScript, Python, Rust und Go sorgt.
Zwei einfache Installationsmöglichkeiten für OpenCode sind:
1# Via curl
2curl -fsSL https://opencode.ai/install | bash
3
4# Via Homebrew
5brew install anomalyco/tap/opencode
Dann kann man opencode in einem beliebigen Projektverzeichnis ausführen, um eine Sitzung zu starten.
OpenCode unterstützt eine breite Palette von KI-Anbietern über ein einheitliches Konfigurationssystem. Hier ein nicht vollständiger Überblick:
| Anbieter | Modelle | Kosten |
|---|---|---|
| Anthropic | Claude Sonnet/Opus/Haiku | Pay-per-use |
| OpenAI | GPT-4.1, GPT-5, O3/O4 | Pay-per-use |
| Gemini 2.5/3 Pro/Flash | Pay-per-use | |
| GitHub Copilot | GPT, Claude, Gemini-Modelle | Im Copilot-Abo enthalten |
| Groq | Llama 3 | Pay-per-use |
| Ollama | Jedes lokale Modell | Kostenlos (Ihre Hardware) |
| AWS Bedrock | Claude, Llama | Pay-per-use |
| Azure OpenAI | GPT-Modelle | Pay-per-use |
| OpenRouter | 100+ Modelle | Pay-per-use |
Das Wichtige: Der Wechsel des Anbieters ändert nicht, wie man arbeitet. Dieselben Befehle, derselbe Workflow, dasselbe Interface - nur das "Gehirn" dahinter ändert sich.
Man braucht keinen bezahlten API-Key, um OpenCode produktiv zu nutzen. Hier sind die wirklich kostenlosen Optionen:
Seit Januar 2026 unterstützt OpenCode die GitHub Copilot Integration. Wer ein Copilot-Abonnement hat (in vielen GitHub-Plänen enthalten, einschließlich der kostenlosen Stufe für einzelne Entwickler), kann es als Backend für OpenCode verwenden.
Kleiner Haken: Das kostenlose Token-Kontingent ist schnell weg. Etwa 30 Minuten bis zu 1 Stunde echter Coding-Arbeit, und das Monatslimit ist erreicht.
Dies ist die Option, auf die wir uns in diesem Post konzentrieren und die sich in unser unternehmensinternes LLM-Endpunkt-Setup einfügt.
Ollama selbst ist kostenlos - aber "gratis" ist lokale Inferenz nicht wirklich: Man zahlt mit Hardware, Strom und dem Aufwand für Betrieb und Wartung. Dazu kommt: Immer die Lizenz des jeweiligen Modells im Blick behalten (das ist ein eigenes Thema und hier out of scope).
Ollama bietet eine OpenAI-kompatible API zum Ausführen von Open-Source-Modellen lokal. OpenCode verbindet sich nativ damit.
Um OpenCode mit Ollama zu verwenden, können wir eine ~/.config/opencode/opencode.json erstellen oder bearbeiten:
1{
2 "$schema": "https://opencode.ai/config.json",
3 "provider": {
4 "ollama": {
5 "npm": "@ai-sdk/openai-compatible",
6 "name": "Ollama",
7 "options": {
8 "baseURL": "http://localhost:11434/v1"
9 },
10 "models": {
11 "qwen2.5-coder:7b": {
12 "name": "Qwen 2.5 Coder 7B"
13 },
14 "mistral:latest": {
15 "name": "Mistral 7B"
16 },
17 "gemma3:latest": {
18 "name": "Gemma 3"
19 },
20 "qwen2.5-coder:1.5b": {
21 "name": "Qwen 2.5 Coder 1.5B (schnell)"
22 }
23 }
24 }
25 }
26}
Die BaseURL zeigt auf die Ollama-Instanz. Man verwendet localhost für lokal, oder eine erreichbare zentrale IP für einen gemeinsamen Team-Endpunkt.
Diese Konfiguration kann auch mit ollama launch opencode --config durchgeführt werden, um die Modelle direkt über Ollama zu starten.
Eines der stärksten Features von OpenCode ist die Möglichkeit, Modelle mitten in der Sitzung zu wechseln. Das ermöglicht einen praktischen Workflow:
In OpenCode wechselt man Modelle mit dem /models-Befehl während einer Sitzung. Der Konversationskontext bleibt erhalten.
Das ist besonders nützlich in einem Hybrid-Setup: Man nutzt den internen Ollama-Endpunkt des Unternehmens für 80% der Aufgaben, und wechselt nur bei Problemen, die Frontier-Modell-Reasoning brauchen, zu einer Cloud-API.
OpenCode verbindet sich mit Language-Server-Protocol-Servern, um Code über einfache Textanalyse hinaus zu verstehen. Die LSP-Server werden automatisch von OpenCode installiert und verwaltet – man muss sie nicht selbst hosten. Das bedeutet:
OpenCode unterstützt MCP - Anthropics Protokoll zur Verbindung von KI-Modellen mit externen Tools und Datenquellen. Das bedeutet:
Konversationen werden lokal gespeichert. Man kann Sitzungen fortsetzen, vergangene Interaktionen überprüfen und Dateiänderungen über Sitzungen hinweg verfolgen.
OpenCode speichert null Code- oder Kontextdaten auf externen Servern. Projektdaten gehen nur dorthin, wohin man sie sendet - zum LLM-Anbieter, den man konfiguriert. Mit Ollama bedeutet das: nirgendwohin ausserhalb des eigenen Rechners. Die optionale /share-Funktion zum Teilen von Konversationen ist standardmäßig im manuellen Modus und kann für sensible Projekte komplett deaktiviert werden.
So sieht die Nutzung von OpenCode mit einem lokalen Ollama-Modell in der Praxis aus:
1$ opencode
2> /models ollama/qwen2.5-coder:7b
3
4> Die Tests in auth_test.go schlagen nach dem Refactoring fehl.
5 Behebe sie und stelle sicher, dass sie bestehen.
6
7OpenCode wird:
81. auth_test.go und zugehörige Quelldateien lesen
92. `go test ./auth/...` ausführen, um die Fehler zu sehen
103. Die Fehlerausgabe analysieren
114. Korrekturen für die Testdatei vorschlagen
125. Die Änderungen anwenden (nach Zustimmung)
136. Die Tests erneut ausführen zur Verifikation
14
15> /models anthropic/claude-sonnet # Wechsel zur Cloud für schwerere Aufgabe
16> Überprüfe jetzt die Architektur des Auth-Moduls.
17 Gibt es Sicherheitsbedenken beim aktuellen Ansatz?
Die zentrale Erkenntnis: Routineaufgaben (Tests fixen, refactoren, Boilerplate generieren) funktionieren gut mit lokalen Modellen. Komplexes Reasoning (Architektur-Review, Sicherheitsanalyse) profitiert von Frontier-Modellen. OpenCode lässt uns beides in derselben Sitzung nutzen.
OpenCode bietet etwas Seltenes im KI-Coding-Tool-Bereich: echte Anbieterfreiheit. Man nutzt das beste Modell für jede Aufgabe, wechselt mitten in der Sitzung, und hält sich die Optionen offen, während sich die Modelllandschaft weiterentwickelt.
Kombiniert mit kostenlosen Optionen wie Ollama lässt sich ein produktiver KI-gestützter Coding-Workflow aufbauen, ohne sich an einen einzelnen Anbieter zu binden. Ob dieser Ansatz passt, hängt vom konkreten Kontext ab - Anforderungen an Modellqualität, Datenschutzvorgaben und wie wichtig Anbieterneutralität im eigenen Setup ist.
Sie interessieren sich für unsere Trainings oder haben einfach eine Frage, die beantwortet werden muss? Sie können uns jederzeit kontaktieren! Wir werden unser Bestes tun, um alle Ihre Fragen zu beantworten.
Hier kontaktieren