Previsioni Oltraggiose
Oro alla patria? No, questa volta oro ai cittadini
Ruben Dalfovo
Investment Strategist
Investment Strategist
L’addestramento dei modelli AI è spettacolare, costoso e mediaticamente attraente. Ma è l’inferenza, l’uso quotidiano e ripetuto dei modelli da parte di milioni di utenti, a rappresentare la vera frontiera commerciale dell’intelligenza artificiale. Ogni volta che un modello cerca, riassume, scrive codice, formula una raccomandazione o esegue un’azione, entra in gioco un mix delicato di bassa latenza, flusso di dati elevato ed efficienza energetica. E questi requisiti riguardano la memoria tanto quanto il calcolo.
In questo ecosistema, la protagonista è la High Bandwidth Memory (HBM). Posizionata a ridosso del processore, garantisce un flusso di dati rapidissimo. Se il chip è il motore, l’HBM è la linea di alimentazione del sistema: anche il propulsore più potente diventa inefficiente senza un afflusso costante e ad alta portata.
È per questo che i risultati di Micron pesano davvero. Il 16 marzo 2026 l’azienda ha annunciato l’avvio della produzione su larga scala della sua HBM4 da 36 GB, destinata alla piattaforma Vera Rubin di Nvidia: oltre 2,8 terabyte al secondo di banda passante e un miglioramento del 20% nell’efficienza energetica. Micron ha inoltre presentato un nuovo modulo di memoria progettato per ridurre sensibilmente i tempi di risposta nell’inferenza dei grandi modelli linguistici, un’area dove i colli di bottiglia sono sempre più visibili.
Il quadro non riguarda solo Micron. Al GTC, Samsung ha mostrato il chip di inferenza Groq LP30 di Nvidia, prodotto con un processo a 4 nanometri, ampliando la corsa ai componenti critici dell’infrastruttura AI. L’azienda ha già avviato le spedizioni di HBM4 e prevede campioni di HBM4E nel 2026, segnalando un’accelerazione dell’intero segmento della memoria high‑end.
I risultati di Micron del 18 marzo 2026 non rappresentano solo un evento aziendale; forniscono un indicatore cruciale per l'intero mercato dei memory chip. Questo settore è caratterizzato da ciclicità, volatilità e variazioni d'umore. Un periodo sembra un mercato di commodity, il successivo una licenza di stampare denaro. La differenza attuale è che l’AI potrebbe rendere alcune segmenti meno ordinari.
Micron, Samsung e SK Hynix stanno cercando di soddisfare la crescente domanda alimentata dall’AI, mentre Applied Materials collabora con Micron e SK Hynix per sviluppare DRAM e HBM di ultima generazione. Samsung prevede un "superciclo senza precedenti" nei chip, con carenze di memoria che ancora sostengono la domanda, mentre i prezzi più elevati iniziano a esercitare pressioni sui mercati dei PC e degli smartphone.
La sfumatura centrale per gli investitori è che non tutta la memoria è uguale. La memoria tradizionale per PC e smartphone tende a seguire i cicli classici del settore, mentre la HBM e la memoria pensata per i data center AI si muovono su logiche molto più strutturali. Qui i driver non sono la stagionalità o i rinnovi dei dispositivi, ma i lanci di nuove piattaforme AI, la complessità dell’advanced packaging, i limiti energetici e un numero ristretto di fornitori realmente affidabili. È un insieme di condizioni che spesso si traduce in margini più elevati e maggiore visibilità.
Le mosse recenti di Micron rafforzano questa lettura. Oltre all’annuncio sulla HBM4, l’azienda ha acquisito un nuovo sito produttivo a Taiwan e conta di aggiungere un’altra camera pulita entro la fine dell’anno fiscale 2026. All’inizio dell’anno ha inoltre avviato la costruzione di un nuovo impianto per la produzione di wafer a Singapore, progettato per sostenere la domanda di lungo periodo legata all’AI. Sono investimenti che non eliminano del tutto la ciclicità, ma mostrano chiaramente come il management consideri questa domanda più duratura di un semplice picco trimestrale.
Per cominciare, le valutazioni incorporano già molto ottimismo. Il titolo Micron ha corso parecchio in vista dei risultati, il che significa che anche una buona trimestrale potrebbe non bastare: il mercato vuole vedere progressi concreti nel mix di prodotto, nei prezzi e nei margini legati all’HBM.
In secondo luogo, l’offerta prima o poi reagisce. Le carenze di memoria sostengono i prezzi solo finché non attirano nuova capacità produttiva. Micron, Samsung e SK Hynix stanno ampliando le linee per le memorie di nuova generazione. È un segnale positivo nel lungo termine, ma può diventare meno favorevole se tutti arrivano sul mercato contemporaneamente con più offerta del necessario.
Infine, l’inferenza non è un mercato a monopolio. Nvidia rimane dominante, ma la concorrenza aumenta, soprattutto da parte di CPU e chip personalizzati sviluppati da aziende come Google. Se parte dei carichi di lavoro dovesse spostarsi su architetture alternative, a vincere potrebbero essere i produttori con portafogli più ampi e relazioni profonde con i clienti, non necessariamente chi oggi guida il segmento GPU.
Osservare i commenti di Micron su mix, pricing e disciplina dell’offerta di HBM, oltre ai ricavi complessivi.
Distinguere tra memoria AI e memoria consumer. Si muovono nello stesso settore, ma non necessariamente per le stesse ragioni.
Monitorare i lanci di piattaforme Nvidia e carichi di lavoro di inferenza come indicatore di domanda per memoria premium.
Considerare questo nella logica delle infrastrutture, non come una moda. I colli di bottiglia tendono a generare più entrate delle mere parole d’ordine.
La parte intrigante della storia dell'AI non riguarda più solo chi allena il modello più intelligente, ma chi permette a quel modello di rispondere miliardi di volte senza rallentamenti, surriscaldamento o inefficienze economiche. L'ultimo messaggio di Nvidia punta chiaramente verso l'inferenza, che richiede memoria più veloce, più densa e più efficiente. Questo fa del report di Micron del 18 marzo 2026 non solo un evento sui guadagni, ma un test per vedere se i produttori di memoria stanno diventando parte integrante del mondo AI, aumentando così il valore strategico della memoria stessa. In questa fase di sviluppo dell'AI, sono i chip di memoria, più che quelli di elaborazione, a determinare chi sarà il reale beneficiario economico del boom dell'AI.