LLM
19 Novembre 2025
Google a lancé Gemini 3. Naturellement, il est présenté par les équipes Google comme le meilleur LLM du marché pour générer du code. Gemini 3 se décline en plusieurs LLM : Gemini Pro 3 (preview) et...
07 Novembre 2025
Que ce soit ChatGPT, ou les autres services IA et modèles LLM, les failles de sécurité sont bien réelles. Le top de l'OWASP le prouve à chaque publication.Tenable a publié un ensemble de 7...
29 Octobre 2025
YZMA est le nouveau projet de Ron Evans, un développeur bien connu de la communauté Go. Il s'agit de pouvoir faire en Go de l'inférence locale en s'appuyant sur llama.cpp. Il peut faire de l'...
13 Octobre 2025
Constat un peu inquiétant d'une étude conjointe Anthropic et la UK AI Security Institute, avec l'Alan Turing Institute : 250 documents malveillants / contaminés suffiraient à produire une porte...
29 Septembre 2025
En juillet dernier, nous avions présenté l'application Ollama. Cette app permet d'exécuter des LLM localement. Pour rappel : Ollama met d'abord en place un serveur pour ensuite récupérer le LLM et l'...
12 Septembre 2025
Il n'est jamais inutile de rappeler le TOP 10 LLM de l'OWASP. La version 2025 est disponible. Plusieurs changements importants apparaissent dans les failles potentielles. Voici un récapitulatif des...
11 Septembre 2025
L'éditeur JFrog a annoncé plusieurs nouveautés sur les agents IA, l'IA en générale et la sécurité. 1 / Ai Catalog : un catalogue IA pour mieux découvrir et déployer les LLM incluant les modèles...
03 Juillet 2025
L'application Ollama permet d'exécuter localement des LLM. L'app supporte Gemma 3, QwQ, DeepSeek, Llama, Phi 4, Mistal, Granite, etc. Les LLM vont du très gros modèles de 245 Go aux modèles plus...
02 Juillet 2025
L'IA aime l'open source. Les annonces d'ouvertures des agents, des chats et des LLM se multiplient. Après Google et GitHub, c'est au tour de Baidu d'annoncer l'ouverture des LLM Ernie 4.5. ERNIE 4.5...
13 Juin 2025
Philippe Charrière partage régulièrement les PoC et expérimentations. Un des derniers exemples est Docker Model Runner sur Linux en utilisant une Pi 5 pour exécuter localement un SML ou un TLM (Tiny...

