yzma 1.0 est disponible : pour intégrer llama.cpp dans les apps Go

Par:
francoistonic

jeu, 18/12/2025 - 07:42

Ron Evans, développeur bien connu dans la communauté Go, annonce la sortie d'yzma 1.0. L'outil permet d'exécuter localement les LLM et les VLM sur Linux, macOS et Windows et d'utiliser l'accélération hardware pour l'inférence. On peut ainsi utiliser CUDA, Metal et Vulkan. 

A vos codes Go !

Site : https://github.com/hybridgroup/yzma

Annonce initiale : https://www.programmez.com/actualites/yzma-inference-locale-en-go-38456