Intel Corporation est en train de transmettre un signal sous-estimé par le marché : le pouvoir de l’architecture de calcul AI revient de « GPU centralisé » à « couche de gestion CPU ». Lors de la dernière conférence sur les résultats financiers, le PDG Patrick Gelsinger (qui a souligné la même orientation dans la communication sur les activités connexes) a donné un jugement structurel très clé : tournant essentiel : le CPU revient à la position centrale dans la pile AI. Au cours des dernières années, la haute performance de calcul a été presque entièrement dominée par une narration unique : GPU = accélérateur de calcul = seul moteur de croissance. Mais les retours récents de l’industrie changent la donne : le CPU redevient la « couche de gestion + plan de contrôle » des systèmes AI. Changement structurel : l’architecture AI se redécompose en couches. Une nouvelle génération de systèmes AI se forme avec une structure à trois couches : GPU : couche d’exécution de puissance de calcul responsable des calculs matriciels à grande échelle, toujours cœur de l’entraînement et de l’inférence. CPU : couche de gestion du système (en pleine renaissance), assignation des tâches, coordination de la mémoire et des ressources, contrôle du flux de travail. Changement clé : le CPU n’est plus « auxiliaire », mais « centre de commandement ». Écosystème des accélérateurs : couche d’optimisation pour des scénarios spécifiques, optimisée pour des tâches verticales, sous la gestion unifiée du CPU.

Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler