Le PDG de Nvidia déclare que la technologie des puces optiques à faible consommation d’énergie devra attendre avant d’être utilisée à plus grande échelle -Le 19 mars 2025 à 04:31

Une nouvelle technologie prometteuse qui vise à réduire la consommation d’énergie n’est pas encore assez fiable pour être utilisée dans les processeurs graphiques (GPU) phares de Nvidia, a déclaré mardi le PDG de Nvidia, Jensen Huang.

La technologie émergente appelée « Co-packaged optics » utilise des faisceaux de lumière laser pour envoyer des informations sur des câbles en fibre optique entre les puces, ce qui rend les connexions plus rapides et plus efficaces sur le plan énergétique que les câbles en cuivre traditionnels.

Au cours d’une allocution prononcée lors de la conférence annuelle des développeurs de Nvidia, qui s’est tenue mardi dans un stade de hockey bondé à San Jose, en Californie, M. Huang a déclaré que son entreprise utiliserait la technologie optique co-packagée dans deux nouvelles puces de réseau qui se trouvent dans les commutateurs situés au-dessus de ses serveurs, précisant que cette technologie rendrait les puces trois fois et demie plus efficaces sur le plan énergétique que leurs prédécesseurs.

Les puces de commutation seront commercialisées dans le courant de l’année et jusqu’en 2026, ce qui constitue une avancée modeste mais significative vers l’amélioration de la technologie.

Toutefois, M. Huang a déclaré à un groupe de journalistes après son discours que si Nvidia envisageait de l’utiliser plus largement dans ses puces GPU phares, elle ne prévoyait pas de le faire pour l’instant, car les connexions traditionnelles en cuivre étaient « des ordres de grandeur » plus fiables que les connexions optiques co-packagées d’aujourd’hui.

« Cela n’en vaut pas la peine », a déclaré M. Huang à propos de l’utilisation de connexions optiques directement entre les GPU. « Nous continuons à jouer avec cette équation. Le cuivre est bien meilleur.

Huang a déclaré qu’il se concentrait sur la fourniture d’une feuille de route de produits fiable à laquelle les clients de Nvidia, tels qu’OpenAI et Oracle, pouvaient se préparer.

« Dans quelques années, plusieurs centaines de milliards de dollars d’infrastructure d’IA seront mis en place, et vous avez donc approuvé le budget. Vous avez obtenu l’autorisation d’utiliser l’énergie. Le terrain a été construit », a déclaré M. Huang. « Qu’êtes-vous prêt à mettre à l’échelle pour atteindre plusieurs centaines de milliards de dollars dès maintenant ?

Les entrepreneurs et les investisseurs de la Silicon Valley ont placé leurs espoirs dans la technologie optique, qu’ils estiment essentielle à la construction d’ordinateurs de plus en plus grands pour les systèmes d’intelligence artificielle, ce qui, selon M. Huang, serait toujours nécessaire même après les progrès réalisés par des entreprises telles que DeepSeek, car les systèmes d’intelligence artificielle auraient besoin d’une plus grande puissance de calcul pour réfléchir aux réponses qu’ils donnent.

Des start-ups telles que Ayar Labs, Lightmatter et Celestial AI ont levé des centaines de millions de dollars en capital-risque – dont une partie auprès de Nvidia elle-même – pour tenter d’intégrer des connexions optiques copackagées directement sur les puces d’IA. Lightmatter et Celestial AI proposent toutes deux de faire appel public à l’épargne.

Les connexions en cuivre sont bon marché et rapides, mais elles ne peuvent transporter des données que sur quelques mètres au maximum. Cela peut sembler anodin, mais cela a eu un impact considérable sur la gamme de produits de Nvidia au cours des cinquante dernières années.

Le produit phare actuel de Nvidia contient 72 de ses puces dans un seul serveur, consommant 120 kilowatts d’électricité et générant tellement de chaleur qu’il nécessite un système de refroidissement liquide similaire à celui d’un moteur de voiture. Le serveur phare dévoilé mardi, qui sortira en 2027, contiendra des centaines de puces Vera Rubin Ultra dans un seul rack et consommera 600 kilowatts d’énergie.

Faire tenir plus du double de puces dans le même espace en deux ans exigera de Nvidia et de ses partenaires des prouesses d’ingénierie. Ces prouesses s’expliquent par le fait que le travail de calcul de l’intelligence artificielle nécessite le transfert de nombreuses données entre les puces, et que Nvidia tente de maintenir autant de puces que possible dans le rayon d’action relativement court des connexions en cuivre.

Mark Wade, PDG d’Ayar Labs, qui a reçu le soutien de Nvidia, a déclaré que l’industrie des puces était encore en train de réfléchir à la manière de fabriquer des optiques co-packagées à moindre coût et avec une plus grande fiabilité. Même si la transition ne se fera peut-être pas avant 2028 ou plus tard, selon M. Wade, l’industrie des puces n’aura guère d’autre choix que d’abandonner le cuivre si elle veut continuer à construire des serveurs de plus en plus gros.

« Il suffit de regarder la consommation d’énergie qui augmente de plus en plus sur les racks avec des connexions électriques », a déclaré M. Wade lors d’un entretien avec Reuters en marge de la conférence de Nvidia. « L’optique est la seule technologie qui vous permet de quitter ce train. (Reportage de Stephen Nellis à San Jose, Californie ; Rédaction de Kate Mayberry)

Crédit: Lien source

Laisser un commentaire

Votre adresse email ne sera pas publiée.