Claude Code : exécution locale avec Docker Model Runner

Par:
francoistonic

lun, 26/01/2026 - 15:46

Docker propose un petit tutoriel sur comment exécuter Claude Code en utilisant Docker Model Runner pour un LLM local. Pour ce rappel, cet outil permet d'exécuter des LLM sur sa machine, un peu comme Ollama. 

1 / installer Claude Code (Linux, macOS) : curl -fsSL https://claude.ai/install.sh | bash

2 / Docker doit être installé. Il est possible d'utiliser Model Runner avec Docker Desktop. Model Runner peut être accessible sur localhost:12434

3 / augmenter la taille du contexte :

docker model pull gpt-oss
docker model package --from gpt-oss --context-size 32000 gpt-oss:32k
Quand le package est prêt, vous pouvez l'utiliser avec Claude code :
ANTHROPIC_BASE_URL=http://localhost:12434 claude --model gpt-oss:32k
ANTHROPIC_BASE_URL=http://localhost:12434 claude --model gpt-oss "Describe this repo."
Les commandes finales sont alors :
$ docker model pull gpt-oss
$ docker model package --from gpt-oss --context-size 32000 gpt-oss:32k
$ ANTHROPIC_BASE_URL=http://localhost:12434 claude --model gpt-oss:32k "Describe this repo."
Si tout fonctionne correctement, Claude Code s'appuie alors sur Docker Model Runner pour utiliser un LLM local.