SK Hynix, produttore di memorie con sede in Corea del Sud, ha annunciato un investimento da 19 trilioni di won (circa 12,9 miliardi di dollari) per la costruzione di un nuovo impianto dedicato al packaging avanzato. L’obiettivo è espandere la capacità produttiva per rispondere alla domanda esplosiva legata all’intelligenza artificiale.
Il nuovo stabilimento sarà focalizzato sulle tecnologie di packaging avanzato, che consentono di combinare più chip di memoria in un’unica unità ad altissima densità, migliorando prestazioni ed efficienza energetica e riducendo al contempo l’ingombro fisico. Questa fase della produzione è ormai il vero fattore critico dell’ecosistema IA, più ancora della litografia.
SK Hynix è uno dei maggiori produttori mondiali di chip di memoria ed è leader assoluto nel segmento High Bandwidth Memory (HBM), utilizzata nei processori per l’intelligenza artificiale, inclusi quelli sviluppati da Nvidia. Anche Samsung Electronics, principale rivale domestico, ha recentemente annunciato un aumento della capacità produttiva HBM, segnalando una competizione sempre più serrata.
Secondo le stime di settore citate dalla stessa SK Hynix, il mercato delle memorie HBM crescerà a un tasso annuo composto del 33% tra il 2025 e il 2030. Tuttavia, questo adeguamento forzato alla domanda IA sta comprimendo l’offerta di memorie convenzionali, contribuendo a una dinamica inflattiva che si estende a tutta la filiera dell’elettronica.
Crescente domanda di High Bandwidth Memory (HBM)
Alla radice delle tensioni attuali c’è la domanda vorace di HBM da parte degli hyperscaler – Microsoft, Amazon, Google e Meta – impegnati in una vera corsa agli armamenti per il dominio dell’intelligenza artificiale. Questa pressione ha costretto i tre principali produttori mondiali di memoria, Samsung, SK Hynix e Micron, a riallocare la capacità produttiva dei wafer, sottraendola alle memorie standard per PC e smartphone e destinandola prioritariamente a HBM3E e HBM4.
Il meccanismo che genera la scarsità è eminentemente tecnico. La produzione di HBM3E richiede circa tre volte la superficie di un wafer rispetto a una DRAM DDR5 standard di pari capacità. Questo effetto, noto come die penalty, implica che per ogni bit di memoria HBM prodotto, l’offerta di DRAM convenzionale si riduce in modo sproporzionato. Ne deriva una compressione strutturale dell’offerta che non può essere compensata rapidamente.
La complessità produttiva: il limite fisico del silicio
Le memorie HBM si basano su un’architettura a impilamento verticale di chip DRAM interconnessi tramite Through-Silicon Vias (TSV). Questo processo è estremamente complesso, consuma più silicio e presenta rendimenti di produzione inferiori rispetto alle memorie tradizionali, proprio a causa della delicatezza del packaging avanzato.
Il passaggio alle memorie HBM4 a 16 strati (16-Hi), richieste da Nvidia a partire dalla seconda metà del 2026, introduce sfide ingegneristiche ancora più severe. Per mantenere lo stack entro i limiti fisici consentiti, lo spessore del wafer deve essere ridotto da circa 50 micrometri a 30 micrometri, aumentando il rischio di rotture e difetti. Questi vincoli riducono ulteriormente l’output effettivo e creano un collo di bottiglia fisico che non può essere risolto semplicemente aumentando il CapEx nel breve termine.
L’esplosione dei prezzi: dinamiche contrattuali e mercato spot nel 2026
La scarsità di offerta ha già innescato una spirale inflattiva lungo l’intera catena del valore tecnologico. I prezzi contrattuali delle DRAM convenzionali nel primo trimestre del 2026 sono attesi in aumento del 55–60% rispetto al trimestre precedente, mentre le memorie per server potrebbero registrare rincari superiori al 60%.
a pressione non risparmia nemmeno il comparto NAND Flash. La gestione disciplinata della capacità da parte dei produttori, unita alla forte domanda di Enterprise SSD (eSSD), sta spingendo i prezzi verso l’alto con incrementi stimati tra il 33% e il 38%. In questo contesto, l’investimento di SK Hynix non rappresenta solo una scelta industriale, ma una mossa difensiva per presidiare il punto più critico della catena del valore dell’intelligenza artificiale.
