La guerre des puces s’intensifie de manière inattendue. Nvidia a longtemps été le roi incontesté des accélérateurs d’IA, mais aujourd’hui ? Ses propres clients préparent des plans d’évasion.
Google concocte discrètement ses TPUs depuis des années. Amazon voit ses puces Trainium et Inferentia gagner sérieusement du terrain sur AWS. Même AMD commence enfin à se ressaisir avec la série MI300. Mais voici le rebondissement : certains des plus gros clients de Nvidia financent et développent désormais leur propre silicium.
Pourquoi cette rébellion ? Simple question de calcul. Lorsqu’on dépense des milliards pour des GPU, concevoir ses propres puces devient vite une affaire rentable. De plus, un silicium sur mesure permet d’optimiser pour ses propres charges de travail, au lieu de payer la “taxe Nvidia” pour des fonctionnalités jamais utilisées.
Le gorille de 800 kilos n’est pas près de disparaître — le fossé créé par CUDA reste colossal. Mais le paysage évolue. La diversification devient la nouvelle stratégie. Personne ne veut dépendre totalement d’un seul fournisseur, surtout lorsque ce dernier peut fixer ses prix à sa guise.
Ce bouleversement dépasse le simple cadre de l’entraînement IA. Le minage crypto, les fermes de rendu et toute activité gourmande en puissance de calcul pourraient en profiter. Plus d’acteurs signifie de meilleurs prix et plus d’innovation. L’ère du monopole des puces touche peut-être à sa fin, et c’est probablement une bonne nouvelle pour tout le monde, sauf Jensen Huang.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
3
Reposter
Partager
Commentaire
0/400
RooftopVIP
· 12-07 02:11
Haha, Nvidia va commencer à paniquer, ses gros clients se mettent tous à concevoir leurs propres puces, et le fossé protecteur de CUDA ne tiendra plus très longtemps.
Voir l'originalRépondre0
PaperHandSister
· 12-07 02:04
Ah, c’est donc ça la fameuse rébellion ! Les gros clients commencent enfin à se débarrasser des chaînes de Nvidia.
Voir l'originalRépondre0
BearMarketGardener
· 12-07 01:55
Nvidia doit vraiment commencer à s’inquiéter, cette vague de résistance arrive à point nommé ; quand on profite trop du monopole, on finit tôt ou tard par se planter.
La guerre des puces s’intensifie de manière inattendue. Nvidia a longtemps été le roi incontesté des accélérateurs d’IA, mais aujourd’hui ? Ses propres clients préparent des plans d’évasion.
Google concocte discrètement ses TPUs depuis des années. Amazon voit ses puces Trainium et Inferentia gagner sérieusement du terrain sur AWS. Même AMD commence enfin à se ressaisir avec la série MI300. Mais voici le rebondissement : certains des plus gros clients de Nvidia financent et développent désormais leur propre silicium.
Pourquoi cette rébellion ? Simple question de calcul. Lorsqu’on dépense des milliards pour des GPU, concevoir ses propres puces devient vite une affaire rentable. De plus, un silicium sur mesure permet d’optimiser pour ses propres charges de travail, au lieu de payer la “taxe Nvidia” pour des fonctionnalités jamais utilisées.
Le gorille de 800 kilos n’est pas près de disparaître — le fossé créé par CUDA reste colossal. Mais le paysage évolue. La diversification devient la nouvelle stratégie. Personne ne veut dépendre totalement d’un seul fournisseur, surtout lorsque ce dernier peut fixer ses prix à sa guise.
Ce bouleversement dépasse le simple cadre de l’entraînement IA. Le minage crypto, les fermes de rendu et toute activité gourmande en puissance de calcul pourraient en profiter. Plus d’acteurs signifie de meilleurs prix et plus d’innovation. L’ère du monopole des puces touche peut-être à sa fin, et c’est probablement une bonne nouvelle pour tout le monde, sauf Jensen Huang.