L’ensemble des fondements de l’informatique s’effondre.
Mais il n’y a pas lieu de paniquer. Parce que c’est déjà arrivé.
Aux débuts d’Web, un seul serveur faisait tout. Il gérait le trafic, stockait les données, fournissait du contenu et maintenait le fonctionnement des websites Internet.
Cela a fonctionné… jusqu’à ce que ce ne soit plus le cas.
À mesure que de plus en plus de personnes se connectaient, ces machines ont commencé à avoir des difficultés. Un nouveau kind d’infrastructure est alors apparu.
Au lieu d’une seule machine qui faisait tout, chaque tâche avait sa propre answer. Les routeurs dirigeaient le trafic, tandis que les systèmes de stockage géraient les données. Certains systèmes ont rapproché les données des utilisateurs. D’autres répartissent la demande.
Cette spécialisation est la raison pour laquelle des entreprises comme Cisco (Nasdaq : CSCO), Amazon (Nasdaq : AMZN) et Google (Nasdaq : GOOG) sont devenues si importantes lors du développement d’Web.
Ils essayaient chacun d’améliorer le fonctionnement d’une partie d’Web.
La même selected se reproduit aujourd’hui.
Mais cette fois, cela se produit avec les puces qui alimentent l’intelligence artificielle.
La fin du calcul à utilization général
Pendant des décennies, l’unité centrale de traitement, ou CPU, a été le centre de gravité de l’informatique.
Picture : Wikimédia Commons
Il est suffisamment versatile et fiable pour gérer la plupart des expenses de travail, ce qui le rend incroyablement précieux dans un monde où les besoins informatiques sont relativement simples.
Mais les besoins de l’IA sont loin d’être simples.
La formation de modèles d’IA nécessite beaucoup de puissance de calcul. Leur exécution à grande échelle nécessite rapidité et efficacité. Et les deux dépendent du déplacement d’énormes quantités de données sans ralentir les choses.
Ainsi, l’ancien modèle consistant à s’appuyer sur un seul processeur à utilization général ne fonctionne plus.
C’est pourquoi l’industrie de l’IA attribue désormais chaque tâche à une puce spécialement conçue à cet effet.
Les puces graphiques, ou GPU, sont depuis longtemps la référence pour l’entraînement de l’IA, automotive elles peuvent gérer de nombreux calculs en même temps.
Picture : Wikimédia Commons
À partir de là, la personnalisation s’est répandue.
Google suggest ses TPU, qui sont des puces d’IA conçues sur mesure pour la formation et l’exécution de modèles. Amazon suggest ses puces Trainium pour la formation et ses puces Inferentia pour exécuter des modèles A. Et Microsoft construit ses propres puces Maia pour améliorer le fonctionnement de ses systèmes.
Même la mémoire n’est plus seulement un composant de help. Dans de nombreux cas, c’est tout aussi vital que le calcul lui-même.
La mémoire à giant bande passante, ou HBM, est devenue un élément essentiel du système, automotive l’IA doit introduire les données dans les puces suffisamment rapidement pour qu’elles ne restent pas inactives.
Certains analystes estiment que le marché des HBM atteindra 54,6 milliards de {dollars} en 2026, soit une hausse de 58 % par rapport à l’année précédente.
Picture : globalxetfs.com
La demande en mémoire d’IA est désormais si forte que l’offre est bloquée des années à l’avance.
Et cela devient un véritable goulot d’étranglement.
SK Hynix, l’un des plus grands fabricants de puces mémoire au monde, affirme qu’une grande partie de sa mémoire haut de gamme pour 2026 est déjà épuisée.
C’est pourquoi j’ai parlé de Micron Applied sciences (Nasdaq : MU) dans Strategic Fortunes lorsque les prix des DRAM ont commencé à monter en flèche fin 2024. Je pouvais voir où cela allait.
Mais la mémoire n’est pas la seule contrainte de l’IA.
La puissance begin également à limiter la rapidité avec laquelle une nouvelle infrastructure d’IA peut être construite. La formation et l’exécution de modèles d’IA nécessitent également d’énormes quantités d’électricité et, dans certains cas, l’accès à l’électricité détermine même où les nouveaux centres de données peuvent aller.
En d’autres termes, l’IA s’est développée si rapidement que des goulots d’étranglement apparaissent partout.
Pour cette raison, les entreprises sont obligées de repenser la façon dont tout fonctionne ensemble.
C’est pourquoi les plus grands acteurs de l’infrastructure d’IA conçoivent désormais leurs propres puces. Parce que même de petits positive aspects d’efficacité au niveau de la puce peuvent se traduire par des avantages considérables sur l’ensemble de leurs systèmes d’IA.
Amazon, Google, Meta (Nasdaq : META) et Microsoft (Nasdaq : MSFT) sont à eux seuls sur la bonne voie pour dépenser 665 milliards de {dollars} sur les infrastructures d’IA en 2026.
L’une des raisons qui expliquent ces énormes dépenses aujourd’hui est que l’industrie est en prepare de décomposer l’informatique et de la reconstruire de manière plus spécialisée.
Les datacenters ne sont plus construits autour de machines interchangeables. Ils sont repensés comme des environnements étroitement intégrés dans lesquels différents sorts de puces gèrent différentes events de la cost de travail.
Ainsi, le calcul, la mémoire et la mise en réseau sont tous optimisés ensemble.
Cela s’est également produit à l’ère d’Web, lorsque l’informatique est passée de serveurs autonomes à des systèmes en couches. Chaque couche gérait une fonction spécifique et, ensemble, elles créaient un réseau plus rapide et plus évolutif.
C’est ce qui se passe aujourd’hui dans l’infrastructure de l’IA.
C’est l’une des principales raisons pour lesquelles le marché des semi-conducteurs croît si rapidement en ce second.
Parce que la demande n’augmente pas seulement en quantity, elle augmente également en complexité. Et cela entraîne l’ensemble de l’industrie des semi-conducteurs dans une nouvelle route.
Des puces à utilization général…
Vers des systèmes spécialement conçus.
Voici mon avis
La véritable histoire ici est que l’IA ne change pas seulement l’apparence du calcul. Cela change qui le contrôle.
Nous nous éloignons d’un monde dans lequel les puces à utilization général pourraient être achetées par n’importe qui et utilisées pour presque tout. Cela a rendu l’informatique largement accessible.
Mais les systèmes spécialisés ne fonctionnent pas de cette façon.
Leur building et leur fonctionnement nécessitent des puces personnalisées, du matériel étroitement intégré et des capitaux considérables. Et cela concentre naturellement le pouvoir entre les mains des entreprises qui peuvent se permettre de les construire et de les gérer.
Ce n’est pas nouveau.
Lors du développement d’Web, les bénéfices n’ont pas été répartis de manière égale. Il s’est concentré dans les entreprises qui contrôlaient les couches clés de son infrastructure.
La même selected begin à se reproduire.
Mais cette fois, cela se produit à la base de l’informatique elle-même.
Et cela signifie que l’écart entre les entreprises qui construisent des infrastructures d’IA et les autres est vulnerable de se creuser.
Salutations,
Ian KingStratège en chef, Banyan Hill Publishing
Observe de l’éditeur : nous serions ravis d’avoir de vos nouvelles !
Si vous souhaitez partager vos réflexions ou strategies sur le Every day Disruptor, ou s’il y a des sujets spécifiques que vous souhaiteriez que nous abordions, envoyez simplement un e-mail à dailydisruptor@banyanhill.com.
Ne vous inquiétez pas, nous ne révélerons pas votre nom complet si nous publions une réponse. Alors n’hésitez pas à commenter !

















