Ajouter un commentaire

Claude Code : utiliser les LLM d'Ollama

Par:
francoistonic

mar, 20/01/2026 - 09:11

Tu aimes Claude Code mais tu ne veux pas payer le plan à 17 $ / mois et le plan gratuit n'est pas assez étendu et tu veux être totalement local. Ollama vient à ton aide. Avec la version 0.14.0, et plus récente, Ollama est désormais compatible avec l'API Message d'Anthropic et Claude Code. On peut donc utiliser Claude Code avec les modèles installés avec Ollama ! Bref : faire fonctionner Claude Code avec un LLM local ou un LLM depuis ollama.com. 

1 installer Claude Code

2 connecter et configurer Ollama, par exemple :

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434

3 exécuter Claude Code avec un LLM Ollama : claude -- model gpt-oss:20b (exemple) ou :cloud si tu utilises ollama cloud. Les LLM conseillés par Ollama pour le codage :

Local models: - gpt-oss:20b - qwen3-coder

Cloud models: - glm-4.7:cloud - minimax-m2.1:cloud

Pour en savoir plus : https://ollama.com/blog/claude



Filtered HTML

Plain text

CAPTCHA
Cette question permet de vérifier que vous n'êtes pas un robot spammeur :-)
 ZZZZZ  W     W  M   M  X   X   CCC 
Z W W MM MM X X C
Z W W W M M M X C
Z W W W M M X X C
ZZZZZ W W M M X X CCC