ThinkStation PGX : Lenovo livre un barebone IA surpuissant

Par:
francoistonic

lun, 22/12/2025 - 10:24

Depuis quelques mois, NVIDIA promeut sa plateforme hardware et logicielle : DGX Spark. Partenaire du fondeur, Lenovo lance sa mini-station IA : la Thinkstation PGX. Elle se dédie à l’entraînement et à l’inférence des modèles IA les plus complexes. Elle sera aussi le parfait complément à votre environnement de développement.

Le format compact, un gros barebone PC et son design sobre, permettent à la ThinkStation PGX de se fondre dans le paysage. La face avant est une grande grille d’aération, car le hardware a besoin d’être constamment refroidi pour tenir les charges IA sur la durée. La puissance annoncée est de 240W ce qui devrait être suffisant. Nous sommes curieux de voir des benchmarks sur les températures et la consommation réelle de la machine.

Un hardware à la DGX Spark

Lenovo s’appuie sur l’architecture définie par NVIDIA avec son DGX Spark. Nous retrouvons :

- L’imposante GPU Blackwell GB10 intégrant les cœurs Tensor, RT et CUDA

- Un Arm 20 cœurs

- 128 Go de mémoire unifiée LPDDR5 (pour le moment, pas d’autres configurations prévuées)

- 1 ou 4 To de stockage au format NVMe avec chiffrement des volumes

- Réseau : Ethernet 10 Gb/s, Wifi 7, Bluetooth 5.3 (BLE)

- 2 connecteurs ConnectX-7

- Connecteur HDMI 2.1a

Bref, c’est du costaud et le potentiel est là. Lenovo annonce que cette station peut supporter des modèles à plus de 200 milliards de paramètres. Pour pouvoir les entraîner et faire de l’inférence sur cette catégorie de LLM, il faut de la puissance et un stockage à la hauteur.

L’un des intérêts du PGX est de pouvoir créer un cluster local. En effet, vous pouvez chaîner plusieurs stations grâce aux connecteurs ConnectX-7 offrant une bande passante de 200 Gb/s. Ce très haut débit permet de créer un cluster homogène tout en minimisant la latence, idéal pour créer un environnement distribué exploité par la toolchain du DGX OS. 

Lenovo propose 3 types d’installation :

- En station indépendante : il s’agit de connecter le réseau, un clavier, une souris et un écran

- En station complémentaire à une station de travail ou un poste de développement. La PGX sera partagée en réseau.

- En cluster : l’usage le plus avancé

Une station taillée pour l’IA

La ThinkStation PGX, comme nous l’avons dit, est faite pour l’IA et uniquement pour l’IA. Le hardware est optimisé pour cela. Les usages mis en avant par Lenovo le confirment :

- Prototypage de modèles et fine-tuning des modèles et des jeux de données 

- Inférence

- Accélération des traitements et de la manipulation de grands datasets

- Maximiser l’usage des frameworks de data science et d’IA tels que TensorFlow ou PyTorch

- Idéal pour des traitements en temps réel de données en contexte edge 

Chaque usage va maximiser la charge des composants. Par exemple, en fine-tuning, la RAM, la GPU et la bande passante sont saturées, en inférence, seule la GPU est intensivement utilisée. La CPU est là pour exécuter l’OS et la suite logicielle, et les modèles, mais elle n’est pas l’élément essentiel. 

Une pile logicielle optimisée et intégrée

Sans logiciel, le hardware PGX ne servirait pas à grand-chose. Lenovo reprend les logiciels dédiés de NVIDIA : DGX OS (basé sur Ubuntu), les logiciels NVIDIA AI, CUDA 13, GB13 Dashboard, AI Workbench. On déballe, on branche. La station est prête en quelques minutes. 

NVIDIA BaseOS est le système de base pour l’usine IA définie par NVIDIA. DGX OS s’appuie naturellement dessus. Il s’agit d’une distribution Ubuntu personnalisée et optimisée pour l’IA et l’utilisation du hardware. Il permet d’utiliser l’ensemble des outils et des SDK nécessaires pour créer, exécuter et déployer les modèles IA. 

Actuellement, DGX OS 7 est la dernière version disponible. Elle inclut : Ubuntu 24.04 et le noyau 6.8, les derniers paquets Python, GCC et Java, les pilotes NVIDIA optimisés par la plateforme, le SDK CUDA complet, NVIDIA DOCA OFED. PyTorch et Jupyter Lab sont inclus. Un important travail a été fait pour proposer un environnement cohérent et proposer aux développeurs tous les outils nécessaires pour gérer et manipuler les données et les LLM. 

Pour en savoir plus : ICI