Previsioni Oltraggiose
Oro alla patria? No, questa volta oro ai cittadini
Ruben Dalfovo
Investment Strategist
Investment Strategist
Amazon e Anthropic mostrano che oggi i finanziamenti legati all’intelligenza artificiale ruotano sempre più attorno a chip, cloud ed energia, e sempre meno al solo software.
ASML e TSMC indicano che la fase di espansione dell’AI è tutt’altro che esaurita e che, in un contesto di capacità limitata, il potere di prezzo resta ancora saldo.
Nvidia continua ad avere un ruolo centrale, ma tra chip personalizzati e contratti di lungo periodo il tema dei “picks and shovels” sta diventando più specialistico, selettivo e strategico.
Un chatbot può scrivere un testo, rispondere a un messaggio o impressionare con una demo ben riuscita, ma i veri ritorni economici, molto spesso, non si fermano a chi offre il prodotto più visibile. Ed è proprio per questo che l’accordo rafforzato tra Amazon e Anthropic è così interessante. Il 20 aprile 2026 Amazon ha annunciato un investimento fino a 25 miliardi di dollari in Anthropic, mentre Anthropic si è impegnata a spendere oltre 100 miliardi di dollari nei prossimi dieci anni in tecnologie di Amazon Web Services. Più che un normale round di finanziamento nel mondo delle startup, sembra un accordo industriale di lungo periodo costruito per garantirsi risorse, capacità e infrastruttura.
La parte più significativa dell’intesa tra Amazon e Anthropic non è tanto la cifra investita, quanto la struttura che sostiene l’operazione. Anthropic ha infatti spiegato che si garantirà fino a 5 gigawatt di capacità, tra risorse già disponibili e future, basate sui chip Trainium. Parallelamente, amplierà l’inference, cioè la fase in cui i modelli vengono utilizzati dopo l’addestramento, in Asia e in Europa, continuando al tempo stesso a rafforzare l’integrazione con il cloud di Amazon. Amazon ha inoltre sottolineato che più di 100.000 clienti utilizzano già i modelli Claude su Amazon Web Services. Ed è proprio qui che la lettura dell’operazione cambia. Non siamo più davanti al semplice sostegno a una promettente società di intelligenza artificiale, madi un accordo molto più concreto, pensato per garantirsi nel tempo un cliente di grandi dimensioni e un utilizzo stabile dell’infrastruttura computazionale di Amazon.
È un punto importante, perché l’intelligenza artificiale sta assumendo sempre più i contorni di un settore ad altissima intensità di capitale. Il software resta fondamentale, ma quando la domanda inizia a crescere davvero, a fare la differenza non sono solo le applicazioni più brillanti o le demo più convincenti. Spesso vincono le aziende che controllano le risorse più difficili da trovare e da replicare. Nel mondo dell’AI queste risorse sono la capacità di calcolo, i chip avanzati, le reti, i sistemi di raffreddamento e lo spazio nei data center necessario per far funzionare tutto in modo efficiente. In sostanza, il chatbot conquista l’attenzione dell’utente, ma i ricavi più solidi rischiano di finire a chi possiede l’infrastruttura che lo rende possibile.
Gli ultimi aggiornamenti di ASML e TSMC rendono questo punto sempre più difficile da ignorare. ASML ha rivisto al rialzo le proprie prospettive di ricavi per il 2026, mentre i clienti continuavano a portare avanti i piani di espansione legati alla domanda di intelligenza artificiale. Il giorno successivo TSMC ha migliorato le stime di crescita per l’intero anno e ha indicato una spesa in conto capitale attesa nella parte alta della fascia già indicata al mercato. Non è il linguaggio di un comparto che sta rallentando o prendendosi una pausa. Al contrario, trasmette l’idea di un settore che continua ad accelerare, ad ampliare la capacità produttiva e a investire per sostenere una domanda che resta molto forte.
Ed è proprio questo il punto di osservazione più utile per un investitore. L’intelligenza artificiale non è più soltanto una storia di software. Sta diventando sempre di più un grande progetto industriale, con colli di bottiglia, tempi di consegna lunghi e vincoli di offerta. La parte visibile resta il chatbot, l’assistente virtuale, la demo del modello. Quella meno visibile, ma forse più importante dal punto di vista economico, è la fabbrica, la fonderia, i chip e la bolletta elettrica. Quando la domanda corre più veloce dell’offerta, le società che controllano gli strumenti chiave e la capacità produttiva possono ritrovarsi con fondamentali più stabili rispetto alle aziende più esposte al rapporto diretto con l’utente finale.
Nvidia resta al centro di questo universo. Le sue GPU, cioè le graphics processing units, continuano a rappresentare il punto di riferimento per l’addestramento dei modelli più avanzati. Ma il mercato si sta spostando sempre di più verso l’inference, cioè l’esecuzione dei modelli una volta completata la fase di training. In questo segmento contano ancora di più velocità, efficienza e costo. Ed è qui che si apre lo spazio per alternative come le TPU di Google, i chip Trainium di Amazon e altri progetti pensati per compiti più ristretti e specifici. La corsa all’intelligenza artificiale non si sta allontanando dall’infrastruttura, al contrario, dipende sempre di più da essa e sta diventando sempre più una partita giocata su capacità di calcolo, chip e data center.
È proprio qui che il vecchio schema dei “picks and shovels” smette di essere sufficiente. L’idea di fondo resta valida: in una grande corsa agli investimenti, spesso i ritorni migliori vanno a chi fornisce gli strumenti indispensabili, non solo a chi sta in prima linea. Ma nell’AI questi strumenti non sono più semplici “pale”: sono chip su misura, contratti di capacità, infrastrutture cloud e accesso all’energia, cioè asset molto più complessi, rari e strategici. Broadcom ha firmato un accordo fino al 2031 per sviluppare i chip di intelligenza artificiale personalizzati di Google e, separatamente, ha concordato di offrire ad Anthropic accesso a circa 3,5 gigawatt di capacità di calcolo per l’AI a partire dal 2027. Google, inoltre, sta esplorando con Marvell ulteriori progetti di chip, tra cui una memory processing unit e una nuova tensor processing unit pensata per eseguire i modelli in modo più efficiente.
Questo cambia la mappa per gli investitori. Nella prima fase del dell’AI la storia era semplice: Nvidia vende chip potentissimi, tutti si mettono in fila, fine del racconto. La nuova fase, invece, è più affollata, più specializzata e molto più strategica. Alcuni clienti vogliono ridurre la dipendenza da fornitori esterni, mentre altri cercano chip personalizzati capaci di abbassare i costi su attività ben precise. Altri ancora preferiscono pacchetti più integrati, che combinino chip, software e infrastruttura cloud in un’unica offerta difficile da abbandonare. Il bacino dei profitti potrebbe continuare a trovarsi nei “picks and shovels”, ma adesso gli strumenti sono su misura, i contratti durano più a lungo e i costi e le difficoltà legati al cambio di fornitore possono pesare quasi quanto la qualità del chip stesso.
Naturalmente, le insidie non mancano. La prima è che la capacità può restare scarsa fino al giorno in cui, all’improvviso, smette di esserlo. Se gli hyperscaler dovessero iniziare a tagliare la spesa in conto capitale, oppure se la domanda da parte delle imprese si rivelasse più lenta del previsto, le carenze di oggi potrebbero trasformarsi nell’eccesso di offerta di domani. La seconda è che i chip personalizzati non rappresentano automaticamente una soluzione migliore rispetto a quelli standard. Possono comunque accumulare ritardi, creare complicazioni sul fronte software o rivelare limiti progettuali. Il fatto che Google stia lavorando per rendere le TPU più facili da usare con gli strumenti preferiti dagli sviluppatori è un promemoria molto utile: l’hardware, da solo, non basta. La terza è che l’intera catena resta molto concentrata. Se un numero ristretto di fonderie, produttori di macchinari e piattaforme cloud controlla i principali colli di bottiglia, basta una singola interruzione perché gli effetti si propaghino rapidamente lungo tutto il sistema.
• Distinguere tra i vincitori sul fronte dei modelli e chi invece incassa il pedaggio dell’infrastruttura.
• Seguire le trimestrali degli hyperscaler cercando indicazioni su capacità, utilizzo e inference, e non soltanto i ricavi legati all’intelligenza artificiale.
• Considerare i chip customizzati come un segnale di specializzazione crescente, non come la prova che Nvidia sia uscita di scena.
• Guardare all’intero pacchetto: chip, cloud, strumenti software e accesso all’energia e allo spazio nei data center.
L’AI continua a sembrare magia sullo schermo, ma sotto la superficie si comporta sempre più come un’industria pesante. L’accordo tra Amazon e Anthropic suggerisce che la vera sfida non è soltanto costruire il modello più intelligente. È anche assicurarsi la potenza di calcolo, prenotare capacità con largo anticipo e mantenere l’infrastruttura pienamente utilizzata per anni. Questo non rende il chatbot meno importante. Significa però che, in questa fase della corsa all’intelligenza artificiale, le applicazioni più brillanti possono anche essere quelle visibili sullo schermo, ma i ritorni economici più consistenti potrebbero andare soprattutto alle aziende che controllano l’infrastruttura su cui si regge l’intero ecosistema dell’AI.
Questo contenuto è materiale di marketing. Nessuna delle informazioni e analisi qui contenute costituisce consulenza in materia di investimenti. Il trading comporta rischi e le performance passate non sono un indicatore affidabile della performance futura. In questo contenuto potrebbero essere citati strumenti emessi da società partner, dalle quali la Capogruppo Saxo riceve pagamenti o retrocessioni.