Claude Code : exécution locale avec Docker Model Runner
lun, 26/01/2026 - 15:46
Docker propose un petit tutoriel sur comment exécuter Claude Code en utilisant Docker Model Runner pour un LLM local. Pour ce rappel, cet outil permet d'exécuter des LLM sur sa machine, un peu comme Ollama.
1 / installer Claude Code (Linux, macOS) : curl -fsSL https://claude.ai/install.sh | bash
2 / Docker doit être installé. Il est possible d'utiliser Model Runner avec Docker Desktop. Model Runner peut être accessible sur localhost:12434
3 / augmenter la taille du contexte :
docker model pull gpt-ossdocker model package --from gpt-oss --context-size 32000 gpt-oss:32k$ docker model pull gpt-oss
