Intermédiaire·4 min·7 mai 2026

Les goulets d'étranglement de l'IA : ce que les patrons veulent vraiment dire

🎧 Résumé audio0:00 / 0:00
Les géants de l'IA manquent déjà de puces et d'électricité. Et ce n'est que le début des problèmes.
Les goulets d'étranglement de l'IA : ce que les patrons veulent vraiment dire

Pourquoi ça compte pour toi

Si tu construis un produit IA ou que tu comptes sur l'IA pour passer à l'échelle, tu dois savoir que la pénurie de puces va durer 3 à 5 ans minimum. Côté énergie, même Google envisage des centres de données en orbite. Et il y a un débat plus profond : la course à la taille brute suffit-elle vraiment ?

Ce qu'il faut retenir

  • 1.Le marché des puces restera en déficit pendant 5 ans selon le PDG d'ASML — les hypergéants ne recevront pas tout ce qu'ils ont commandé
  • 2.Le carnet de commandes de Google Cloud a explosé : 460 milliards en commandes non livrées — la demande réelle dépasse l'offre de loin
  • 3.L'énergie devient le vrai goulot : refroidir un centre de données en orbite n'a pas de solution simple, mais Google explore cette piste sérieusement

Les puces, c'est fini pour 5 ans

Christophe Fouquet, le patron d'ASML (la boîte qui fabrique les machines les plus complexes du monde pour graver les puces), a lâché le truc en direct : même avec une accélération massive de la fabrication, "le marché restera en pénurie d'ici deux, trois, peut-être cinq ans."

Concrètement : Google, Microsoft, Amazon, Meta sont en train de commander des milliers de milliards de dollars de puces qu'ils ne recevront jamais à temps. Francis deSouza (COO de Google Cloud) a montré les chiffres : le carnet de commandes — ce qui a été commandé mais pas encore livré — est passé de 250 milliards à 460 milliards de dollars en un seul trimestre. C'est pas un problème d'offre et de demande symétrique. C'est une pénurie structurelle.

Pour Qasar Younis (Applied Intuition, 15 milliards de valorisation), le vrai goulet d'étranglement, c'est autre chose : les données du monde réel. Tu peux simuler autant que tu veux en labo, mais entraîner une IA pour des voitures autonomes, des drones militaires, des engins de mining ? T'es obligé de les envoyer dehors et d'attendre que quelque chose casse. "Il n'existe pas assez de simulation synthétique pour remplacer ça," dit-il.

L'énergie : le mur invisible qui arrive

Si les puces sont le premier obstacle, l'électricité va devenir un cauchemar bien pire. DeSouza a confirmé sans détour que Google explore des centres de données en orbite. Pourquoi ? "On a accès à plus d'énergie," a-t-il expliqué.

Sauf que — et c'est hilarant — dans l'espace, y'a pas de convection. Pas d'air. Tu dois évacuer la chaleur par radiation vers le vide, ce qui est une galère technique insensée comparé aux systèmes de refroidissement par air et liquide d'aujourd'hui.

Mais Google est sérieux sur le sujet. Parce qu'à un moment, tu peux pas juste construire des centres de données plus gros. Y'a une limite physique à la puissance disponible.

Peut-être qu'on construit juste le mauvais truc

Eve Bodnia, une physicienne quantique qui a quitté l'académie pour fonder Logical Intelligence, pose une question dérangeante : et si la course au LLM géant était un cul-de-sac ?

Son approche s'appelle "energy-based models" (EBM). Au lieu de prédire le prochain token comme font les LLMs classiques, ses modèles essaient de comprendre les règles sous-jacentes aux données — comme ton cerveau le fait. Résultat : son plus gros modèle fait 200 millions de paramètres (versus les centaines de milliards des leaders), tourne des milliers de fois plus vite, et surtout peut mettre à jour son apprentissage au fur et à mesure (pas besoin de ré-entraînement complet).

Pour des trucs comme la conception de puces, la robotique, les systèmes qui doivent comprendre les lois physiques du monde réel (pas juste les structures linguistiques), son argument tient debout : "Quand tu conduis une bagnole, tu cherches pas des structures en anglais. Tu regardes autour, tu saisis les règles du monde, tu décides."

Les agents qui demandent la permission (pour vrai)

Dmitry Shevelenko (Perplexity) a expliqué comment ils ont transformé un moteur de recherche en "digital workers" — des agents que tu diriges comme une petite équipe.

Mais avec un truc qui va paraître banal mais c'est la clé : la granularité des permissions. Un administrateur entreprise peut dire : cet agent a accès à ce connecteur, mais en lecture seule. Pas d'accès à l'écriture. Quand l'agent Comet prépare une action, il demande l'approbation d'abord.

Shevelenko reconnaît que certains utilisateurs trouvent ça chiant. Mais depuis qu'il a rejoint le conseil d'administration de Lazard (banque d'investissement, 180 ans, la confiance c'est tout), il a compris pourquoi un CISO doit bloquer les conneries : "La granularité c'est le fondement d'une bonne hygiène de sécurité."

L'IA physique, c'est de la géopolitique

Younis a lâché le truc le plus important du panel : l'IA physique et la souveraineté nationale sont entrelacées maintenant.

Quand internet s'est répandu, c'était américain mais ça s'est joué au niveau applicatif (Uber, DoorDash). Personne pouvait vraiment bloquer la technologie.

Avec l'IA physique (voitures autonomes, drones militaires, engins de mining, machines agricoles), t'as du matériel qui opère dans le monde réel. Un gouvernement ne peut pas ignorer ça. Et presque tous disent : "On veut pas que l'IA de quelqu'un d'autre contrôle nos machines." Actuellement, il y a moins de nations capables de déployer un véhicule autonome qu'il y en a avec des armes nucléaires.

Fouquet a calmement pointé que les progrès de la Chine en IA (DeepSeek) sont réels mais dépendent entièrement de l'accès aux machines EUV d'ASML. C'est là que la dépendance technologique se joue.

📊 Cours en bourse

Newsletters Noésis

3 minutes d'IA dans ta boîte mail, chaque matin.

Rejoins les francophones qui comprennent, essaient et progressent avec l'IA. Choisis ce que tu veux recevoir. Désabonnement en 1 clic.