LLM, SLM, TRM : les différences entre les modèles utilisés par l'IA

Par:
francoistonic

mar, 16/12/2025 - 14:00

L'IA, quelle soit agentique ou génératique, s'appuie sur des modèles, les fameux modèles de langage. Les modèles les plus connus sont les LLM ou Large Language Models. Ces modèles contiennent des miliards de pramètres qui permettent de prédires et de répondre aux requêtes. Les LLM sont avant tout des modèles généralistes. Ils sont entraîner sur des corpus de données colossaux et les plus variés possibles pour garder cette approche généraliste.

Les LLM exigent une puissance de traitements énorme énorme. Gemini, GPT, Llama sont des LLM. 

Usages: généraliste et polyvalent. Très flexible dans son usage.

Les SLM (Small Language Models) sont des modèles plus légers que les LLM. Ils possèdent souvent quelques centaines de millions de paramètres, quelques milliards pour les plus gros. Le SLM n'est pas généraliste mais plutôt spécialisé et optimisée avec des données ciblés sur des domaines limités pour accroître l'efficacité dans les réponses. Le SLM exige moins de GPU. La taille réduire autorise une usage local élargi sans exiger une machine trop puissante. Phi-2 est un SLM.

Usages : tâches / demandes ciblées. Flexibilité relative dans la limite du corpus de départ.

Les TRM (Tiny Recursive Models) sont des modèles spécifiques à des tâches ou des domaines (très) précis. Ils sont entrainés et optimisés avec un corpus de données volontairement réduit et spécialisé. Par exemple : le médical, un langage de programmation, etc. Les ressources nécessaires sont proches d'un SLM.

Usages : idéal pour des tâches spécifiques et restreintes. Peu flexible dans l'usage car très spécialisé.

Source : post de Régis Sochard (Capgemini)