Micron lance la production de masse de la puce mémoire “HBM3E”.

148

Micron Technology, le premier producteur américain de puces mémoire, a commencé la production de masse de ses semi-conducteurs de mémoire à large bande passante (HBM3E), destinés à l’IA générative et à l’informatique à haute performance, devançant ainsi les principaux acteurs coréens Samsung Electronics et SK Hynix.

Nvidia prévoit d’incorporer cette puce dans ses prochaines unités de traitement graphique H200, dont la livraison est prévue pour le deuxième trimestre, remplaçant ainsi la puce H100 actuelle qui a considérablement augmenté le chiffre d’affaires de l’entreprise.

Le retardataire basé à Boise, dans l’Idaho, deviendra le premier fabricant de puces à produire en masse la nouvelle norme HBM, un exploit inattendu compte tenu de sa modeste part de marché dans le segment des puces mémoire.

Les actions de Micron ont augmenté de 4,02 % mardi, tandis que celles de SK Hynix ont chuté de 4,94 % pour clôturer à 153 800 wons.

Ce mouvement coïncide avec l’annonce par Samsung Electronics du développement réussi de puces HBM3E ayant la plus grande capacité de l’industrie, soit 36 gigaoctets.

La société basée à Suwon, Gyeonggi, a déjà commencé à envoyer des échantillons de produits à ses clients, et la production de masse des puces est prévue pour le premier semestre de cette année.

Les puces HBM3E empilent douze puces de mémoire vive dynamique (DRAM) de 24 gigaoctets avec une largeur de bande de mémoire maximale de 1,28 téraoctet par seconde. Ces deux aspects ont été améliorés de 50 % par rapport à leur prédécesseur, la puce HBM3 à huit empilements.

Mais les puces HBM3E ont la même hauteur que les puces à huit couches pour répondre aux exigences actuelles en matière d’emballage, ce qui a été rendu possible grâce à l’application d’une technologie avancée de film non conducteur à compression thermique (TC NCF).

Le fabricant de puces a également réduit l’épaisseur de son matériau NCF, ce qui a permis d’obtenir l’écart le plus faible de l’industrie entre les puces, à savoir sept micromètres.

“Les fournisseurs de services d’intelligence artificielle ont de plus en plus besoin d’une mémoire HBM de plus grande capacité, et notre nouveau produit HBM3E 12H a été conçu pour répondre à ce besoin”, a déclaré Bae Yong-cheol, vice-président exécutif de la planification des produits de mémoire chez Samsung Electronics.

“Cette nouvelle solution mémoire s’inscrit dans notre volonté de développer des technologies de base pour le HBM à pile élevée et d’assurer un leadership technologique sur le marché du HBM à haute capacité à l’ère de l’IA.”

Les nouvelles puces, lorsqu’elles seront utilisées dans les services d’intelligence artificielle, permettront d’augmenter la vitesse moyenne de l’entraînement à l’intelligence artificielle de 34 % par rapport aux produits HBM3, tout en multipliant par 11,5 le nombre d’utilisateurs simultanés des services d’inférence.

Comments are closed.