Ajouter un commentaire

yzma 1.0 est disponible : pour intégrer llama.cpp dans les apps Go

Par:
francoistonic

jeu, 18/12/2025 - 07:42

Ron Evans, développeur bien connu dans la communauté Go, annonce la sortie d'yzma 1.0. L'outil permet d'exécuter localement les LLM et les VLM sur Linux, macOS et Windows et d'utiliser l'accélération hardware pour l'inférence. On peut ainsi utiliser CUDA, Metal et Vulkan. 

A vos codes Go !

Site : https://github.com/hybridgroup/yzma

Annonce initiale : https://www.programmez.com/actualites/yzma-inference-locale-en-go-38456

Filtered HTML

Plain text

CAPTCHA
Cette question permet de vérifier que vous n'êtes pas un robot spammeur :-)
 FFFF   GGG   EEEE  U   U  X   X 
F G E U U X X
FFF G GG EEE U U X
F G G E U U X X
F GGG EEEE UUU X X