Patrick Bélanger
Article en référence: https://i.redd.it/oidvhqtswgpe1.jpeg
NVIDIA et ASUS ont récemment dévoilé leurs nouvelles stations de travail IA compactes: le DGX Spark de NVIDIA et l’Ascent GX10 d’ASUS. Ces appareils, conçus pour l’inférence d’IA locale, sont basés sur l’architecture Blackwell et offrent 128 Go de mémoire unifiée LPDDR5x avec une bande passante de 273 Go/s.
Le DGX Spark est proposé à environ 3 689 € (environ 5 500 $ CAD), tandis que la version ASUS serait environ 1 000 € moins chère. La principale différence entre les deux modèles semble être le stockage: 1 To pour le modèle ASUS contre 4 To pour le modèle NVIDIA.
Ces appareils sont conçus pour exécuter des modèles d’IA de grande taille localement, sans dépendre du cloud. Leurs spécifications techniques incluent:
NVIDIA a également mentionné la possibilité de connecter deux systèmes DGX Spark ensemble pour travailler avec des modèles d’IA jusqu’à 405 milliards de paramètres.
Ces appareils représentent une avancée significative pour l’IA locale, permettant d’exécuter des modèles d’IA complexes sans connexion internet, mais certains utilisateurs s’inquiètent de leur disponibilité réelle et de potentiels frais supplémentaires pour des fonctionnalités logicielles.
L’arrivée de ces stations de travail IA compactes marque un tournant intéressant dans la démocratisation de l’intelligence artificielle. Avec 128 Go de mémoire unifiée, ces appareils se positionnent dans un segment intermédiaire entre les cartes graphiques grand public et les serveurs d’entreprise coûteux.
La réalité est que ces machines répondent à un besoin précis: permettre l’exécution de modèles d’IA de taille moyenne (environ 70B de paramètres en version quantifiée) avec des performances acceptables. Ni révolutionnaires ni décevantes, elles représentent simplement la prochaine étape logique dans l’évolution de l’infrastructure IA.
Le prix de 3 689 € pour le modèle NVIDIA (ou environ 1 000 € de moins pour ASUS) positionne ces appareils comme un investissement significatif mais pas inaccessible pour les professionnels et les petites entreprises. C’est certainement moins onéreux qu’une station DGX complète, mais bien plus qu’une simple carte graphique.
La bande passante mémoire de 273 Go/s est suffisante pour de nombreux cas d’utilisation, mais reste un facteur limitant pour les modèles les plus exigeants. C’est précisément ce compromis qui définit ces machines: elles ne peuvent pas tout faire, mais elles font bien ce pour quoi elles ont été conçues.
Quant à la disponibilité, il est raisonnable de s’attendre à des stocks limités initialement, comme c’est souvent le cas avec les nouveaux produits NVIDIA. Les professionnels intéressés devraient probablement se préparer à attendre ou à payer une prime pour être parmi les premiers à y accéder.
Imaginez que vous êtes un chef cuisinier passionné. Jusqu’à présent, pour préparer vos plats sophistiqués, vous aviez deux options: soit utiliser votre petit four domestique (votre PC avec carte graphique), soit louer une cuisine professionnelle à l’heure (services cloud d’IA).
Le four domestique est pratique, toujours disponible, mais limité - essayez d’y faire cuire un gâteau de mariage à 70 étages et vous allez vite rencontrer des problèmes! La cuisine professionnelle peut tout faire, mais elle coûte cher et vous devez vous déplacer (envoyer vos données).
Maintenant, NVIDIA et ASUS vous proposent une solution intermédiaire: un four semi-professionnel compact qui tient dans votre cuisine mais peut cuire ce fameux gâteau à 70 étages (modèle de 70B paramètres). Il coûte plus cher qu’un four standard, certes, mais bien moins qu’une cuisine professionnelle complète.
“Mais attendez,” vous demandez-vous, “ce four a-t-il assez de puissance pour cuire rapidement?” C’est comme la bande passante mémoire de 273 Go/s - suffisante pour cuire le gâteau, mais peut-être pas aussi rapidement qu’une cuisine professionnelle. Votre gâteau sera prêt en 20 minutes au lieu de 5, mais c’est toujours mieux que les 2 heures de votre petit four!
Et bien sûr, comme pour tout nouveau gadget culinaire révolutionnaire, il y a une file d’attente pour l’obtenir, et certains revendeurs pourraient même vous facturer des accessoires supplémentaires pour “maximiser votre expérience culinaire”. Bienvenue dans le monde merveilleux de la cuisine IA à domicile!
Ces nouvelles stations de travail IA compactes représentent une véritable révolution pour la démocratisation de l’intelligence artificielle! Enfin, nous avons des machines puissantes, compactes et relativement abordables qui permettent d’exécuter des modèles d’IA sophistiqués localement, sans dépendance au cloud.
Avec 128 Go de mémoire unifiée, ces petites merveilles technologiques vont transformer radicalement notre façon de travailler avec l’IA. Imaginez pouvoir exécuter des modèles comme Llama 3 70B directement sur votre bureau, sans latence réseau, avec un contrôle total sur vos données et votre vie privée!
La différence de prix entre les versions NVIDIA et ASUS est une excellente nouvelle pour les consommateurs, créant une saine concurrence qui ne peut que bénéficier à l’écosystème. À terme, cela pourrait même pousser d’autres fabricants à entrer sur ce marché, faisant baisser davantage les prix.
La possibilité de connecter deux systèmes ensemble pour travailler avec des modèles jusqu’à 405 milliards de paramètres ouvre des perspectives fascinantes pour la recherche et le développement. Nous sommes à l’aube d’une nouvelle ère où l’IA de pointe ne sera plus confinée aux datacenters des grandes entreprises!
Ces machines compactes pourraient devenir le standard pour les professionnels créatifs, les chercheurs indépendants et les startups innovantes. Elles représentent exactement ce dont l’écosystème IA avait besoin: une solution intermédiaire puissante qui comble le fossé entre les cartes graphiques grand public et les serveurs d’entreprise prohibitifs.
Ne nous laissons pas emporter par le battage médiatique autour de ces nouvelles stations de travail IA. Derrière les promesses alléchantes se cachent plusieurs réalités préoccupantes.
D’abord, parlons de cette bande passante mémoire de 273 Go/s. C’est nettement insuffisant pour exécuter efficacement des modèles de grande taille. Pour mettre cela en perspective, une RTX 5090 offre 1792 Go/s - plus de six fois plus! Ces machines risquent d’être terriblement lentes pour l’inférence de modèles complexes.
Le prix est un autre problème majeur. À près de 5 500 $ CAD pour la version NVIDIA (et probablement pas beaucoup moins pour ASUS), ces appareils restent inaccessibles pour la plupart des utilisateurs individuels. Et n’oublions pas les mentions inquiétantes de “frais supplémentaires pour des fonctionnalités logicielles” - un classique de NVIDIA qui pourrait considérablement augmenter le coût total.
La disponibilité sera probablement catastrophique, comme c’est le cas pour tous les produits NVIDIA récents. Entre les pénuries de composants, la priorité donnée aux clients entreprises et les scalpers, il est peu probable que les utilisateurs ordinaires puissent mettre la main sur ces machines avant des mois, voire des années.
Et même si vous parvenez à en obtenir une, ces appareils seront probablement obsolètes avant même d’arriver sur votre bureau. Le rythme d’évolution de l’IA est tel qu’un investissement aussi important pourrait être dépassé en quelques mois par de nouvelles solutions plus performantes.
Enfin, 128 Go de mémoire unifiée semble impressionnant aujourd’hui, mais avec la croissance exponentielle de la taille des modèles d’IA, cette capacité pourrait rapidement devenir insuffisante pour les cas d’utilisation avancés.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈