L'obiettivo qui non è quello di essere allarmisti, ma di presentare i fatti. Perché in questa fase del ciclo, credo sinceramente che saranno i vincoli più concreti - elettricità, obsolescenza materiale, esecuzione industriale e contabilità - a dettare i rendimenti di borsa.

Il business del cloud IA: motore di crescita, ma redditività dubbia

MarketScreener ha un'architettura informatica ibrida. La nostra piattaforma si basa principalmente su server di nostra proprietà, ma affittiamo anche infrastrutture, in particolare per i progetti di IA, per i quali sono necessarie le famose GPU.

Ad esempio, un server con una GPU V100 (16 GB di VRAM) viene affittato a circa 400-500 euro al mese. Considerando che questi chip risalgono al 2017 e costavano, da soli, circa 10.000 euro, l'investimento è sicuramente redditizio per i fornitori di servizi cloud. Tuttavia, oggi quasi nessuno noleggia più queste V100, perché non supportano i software più recenti che consentono di sfruttare in modo ottimizzato i migliori LLM. Si tenderà piuttosto a utilizzare una GPU L40, uscita nel 2022, o una A100.

Ed è proprio questo il problema: lo sviluppo dell'hardware e del software ha subito un'accelerazione. I nuovi chip escono sempre più rapidamente – si parla di un ritmo di lancio annuale per Nvidia! – e la comunità open source innova continuamente a livello di software. Tutto questo per dire che un'infrastruttura acquistata oggi può essere tecnicamente “OK” tra tre anni, ma commercialmente superata rispetto ai guadagni in termini di efficienza delle nuove generazioni.

Diventa piuttosto difficile immaginare di poter riprodurre lo scenario della V100: affittare un chip acquistato a 10.000-500 euro al mese per più di tre anni. E ancora una volta, stiamo parlando di chip nudi, non di un rack AI completo, operativo, raffreddato, cablato, ecc. Non stiamo nemmeno parlando del costo energetico: un rack AI che funziona 24 ore su 24, 7 giorni su 7, consuma circa 100 kW. Un costo tutt'altro che trascurabile.

Possono quindi verificarsi due cose, che stiamo già iniziando a osservare.

  1. La comunità open source può adattare il software per consentire l'utilizzo dei modelli più recenti su chip di generazioni precedenti, prolungandone la vita economica. Piuttosto interessante.
  2. Gli hyperscaler aumenteranno i loro prezzi. E questo è addirittura necessario se non vogliono ritrovarsi con un ROIC inferiore al 5%. In genere, il CEO di OVH prevede un aumento dei prezzi del cloud del 5-10% entro la metà del 2026, con un aumento dei costi dei server interni del 15-25%, in particolare sotto la pressione della DRAM/SSD e dell'hardware IA.

E sapete una cosa? Penso che gran parte della domanda di cloud IA non continuerà se i prezzi aumenteranno troppo bruscamente. Semplicemente perché monetizzare un progetto IA non è così facile. Prototipare è molto facile – e sono nella posizione giusta per dirlo – ma produrre un sistema affidabile, scalabile e redditizio è tutta un'altra storia.

Da diversi mesi, il nostro obiettivo è quello di rendere intelligente la barra di ricerca di MarketScreener, e posso dirvi che è più facile a dirsi che a farsi se non si vuole spendere dieci centesimi ogni volta che un utente preme Invio. E se osiamo prendere in considerazione questo tipo di progetto, è proprio perché il prezzo di noleggio delle GPU ci sembra per ora accessibile. Ma se il prezzo raddoppia o triplica, credo sinceramente che gran parte della domanda non accetterà di assorbire questi aumenti.

Il collo di bottiglia fisico

Goldman Sachs stima che la domanda di energia elettrica dei data center aumenterà di circa il 165% entro il 2030, trainata in gran parte dall'IA. Keith ne parla in dettaglio qui.

Tuttavia, l'offerta di energia elettrica controllabile non sta crescendo allo stesso ritmo. La domanda non è più “a quale prezzo?”, ma “ce ne sarà abbastanza nel posto giusto al momento giusto?”.

In Virginia del Nord, primo hub mondiale, i nuovi progetti devono affrontare fino a sette anni di attesa per essere collegati alla rete. E non si tratta di un'eccezione locale: gli operatori di rete statunitensi ed europei segnalano code sempre più lunghe ovunque l'IA voglia insediarsi.

Si stanno costruendo decine di miliardi di dollari di infrastrutture... che non possono funzionare perché non sono collegate alla corrente (carenza di trasformatori, apparecchiature di raffreddamento, manodopera specializzata...). E l'ironia della sorte è che questi beni, in attesa di essere collegati, si svalutano.

Questo è il vero costo opportunità dell'IA: non solo il capex, ma anche il tempo di inattività industriale.

La situazione è talmente caotica che gli hyperscaler stanno firmando o finanziando progetti nucleari SMR (Oklo, X-Energy, ecc.). Ma non fatevi illusioni: anche in questo caso si parla di un arrivo significativo dopo il 2030.

Questo collo di bottiglia energetico ha due effetti diretti sugli hyperscaler:

  • CapEx aggiuntivo non previsto: devono finanziare non solo i data center, ma a volte anche le proprie soluzioni energetiche.
  • Ritardo del ROI: i potenziali ricavi dell'IA ci sono, la domanda c'è (per ora, e a questo prezzo), ma la capacità di fornitura è limitata, quindi la monetizzazione è ritardata.

Investimenti di portata mai gestita da aziende private

È importante comprendere bene che ci troviamo in una situazione storica senza precedenti, con centinaia di miliardi di CapEx all'anno concentrati su una manciata di aziende.

Non oso nemmeno più citare le cifre esatte per paura di non essere aggiornato. Da quanto mi risulta, si parla di oltre 600 miliardi di dollari di investimenti annuali in IA entro il 2026-2027.

Secondo il Wall Street Journal, gli investimenti in IA negli Stati Uniti potrebbero aver contribuito per metà alla crescita del PIL del Paese nei primi sei mesi dell'anno.

Chi è in grado di eseguire tali operazioni di investimento senza distruggere valore?

Gli stessi attori lo riconoscono: nessuna di queste aziende ha mai realizzato un progetto industriale da 50 miliardi di dollari, e ora ne stanno lanciando una decina contemporaneamente. A questa scala, il minimo errore logistico diventa un abisso e i ritardi costano una fortuna.

Anche il finanziamento di questi investimenti non è cosa da poco. Si sta verificando un vero e proprio cambiamento nella struttura del capitale delle aziende tecnologiche che conoscevamo come estremamente solide dal punto di vista finanziario.

Nel 2025, questi hyperscaler hanno emesso oltre 120 miliardi di dollari di debito, una cifra in forte aumento rispetto agli anni precedenti, e la dinamica prevista per il 2026-2027 è ancora più forte.

Oracle è un buon esempio: ora abbiamo un indebitamento netto superiore a 80 miliardi di dollari e una leva finanziaria superiore a 3.

Anche se, dalla fine dello shutdown e dalla pubblicazione dei dati macroeconomici, il clima sembra essersi disteso negli Stati Uniti, questo cambiamento di portata è cruciale: meno margine di manovra se i tassi rimangono elevati, maggiore sensibilità al ciclo economico e quindi una maggiore dipendenza dal successo commerciale dell'IA.

La circolarità dell'ecosistema

Uno degli elementi più volte sottolineati dagli analisti di tutto il mondo riguarda la circolarità dei flussi economici. Questa consanguineità dei flussi ci porta a pensare che parte della crescita registrata dagli attori di questo ecosistema non sia realmente sinonimo di creazione di valore netto.

Lo schema è piuttosto semplice:

  1. Gli hyperscaler investono massicciamente nei data center.
  2. Una parte importante della domanda di IA proviene... dagli stessi attori dell'IA: start-up, laboratori, piattaforme, editori di modelli.
  3. Questi attori finanziano il loro consumo di cloud attraverso raccolte di fondi in cui gli hyperscaler e i giganti dei semiconduttori sono spesso azionisti, partner o fornitori esclusivi.
  4. I ricavi del cloud aumentano quindi in parte grazie a un sistema in cui il fornitore finanzia indirettamente il proprio cliente.

Tutto ciò non è catastrofico, ma va comunque notato che questa circolarità consente a questi attori di registrare una crescita spettacolare senza che la domanda finale, proveniente dal grande pubblico o dalle aziende tradizionali, abbia ancora dimostrato di seguire lo stesso ritmo.

Perché è fragile?

  • Perché il ciclo dipende dal costo del capitale. Finché il denaro è abbondante e le valutazioni rimangono elevate, le start-up possono consumare il cloud in perdita. Se l'appetito dei mercati rallenta, il ciclo si contrae rapidamente.
  • Perché i ricavi sono correlati. Se un anello della catena riduce la sua spesa (ad esempio una piattaforma di IA che rallenta la sua crescita), l'hyperscaler vede rallentare i suoi ricavi cloud, il che riduce la sua capacità di reinvestire, il che pesa sulla domanda di GPU... ecc.
  • Perché il valore finale non è ancora garantito. L'ecosistema oggi spende enormemente su una promessa, ma se la monetizzazione dei casi d'uso richiede più tempo del previsto, l'intero castello diventa molto sensibile a un cambiamento di regime.

Creatività contabile

Alcuni parleranno di frode, altri di creatività contabile. A mio avviso, questo è il punto più pragmatico di questo articolo: gli hyperscaler hanno iniziato a considerare che la vita utile dei loro server e chip è aumentata e stanno quindi allungando i periodi di ammortamento, anche se il ciclo di vita dei prodotti hardware IA si sta accorciando. Una divergenza preoccupante, che fa pensare che stiano scrivendo i risultati di oggi a scapito di quelli di domani.

variazione della vita utile dei chip IA

Vita utile dei server (piano di ammortamento) per i tre principali hyperscaler. Il passaggio coordinato da 3/4 anni a 6 anni è facilmente osservabile nel corso del tempo. Fonte: “Why AI factories bend, but don’t break, useful life assumptions”, SiliconAngle.

Nel 2023, Alphabet ha esteso la durata di vita stimata dei server da 4 a 6 anni e di alcune apparecchiature di rete da 5 a 6 anni. Lo stesso vale per Microsoft.

Nel 2025, Meta ha esteso la durata a 5,5 anni (4-5 anni in precedenza). Nello stesso anno, anche Oracle ha iniziato ad ammortizzare le proprie apparecchiature su 6 anni.

Se il meccanismo finanziario non è chiaro, ecco un piccolo esempio per aiutarvi:

Supponiamo che un hyperscaler acquisti 100 miliardi di dollari di server/GPU AI. Se l'azienda ritiene che la vita utile di questa attrezzatura sia di 3 anni, contabilizza circa 33 miliardi di dollari all'anno di ammortamento (ipotizzando un ammortamento lineare). Se lo estende a 6 anni, contabilizza solo 17 miliardi di dollari all'anno.

Risultato: +16 miliardi di dollari di risultato operativo all'anno nel breve termine, senza che la liquidità sia cambiata di un centesimo. Si tratta solo di una questione di tempistica del conto economico, perché tra quattro anni il valore contabile di queste attività in bilancio sarà scollegato dalla realtà economica e l'azienda potrebbe essere costretta a svalutare il valore residuo in un colpo solo, sorprendendo così molti investitori.

Michael Burry stima che l'entità del sottoammortamento delle attività IA di queste aziende raggiungerà circa 180 miliardi di dollari entro il 2028. Ritiene che questa scrittura contabile avrebbe permesso a Oracle di aumentare i propri profitti del 26,9% e a Meta del 20,8%.

Burry non è l'unico a esporsi. The Economist titola “L'enigma contabile da 4.000 miliardi di dollari al centro del cloud IA”.

Secondo le loro stime, se queste attività fossero ammortizzate in tre anni invece che nei periodi più lunghi attualmente adottati dalle aziende, gli utili annuali al lordo delle imposte diminuirebbero di circa l'8%. E se l'ammortamento seguisse effettivamente il ritmo imposto da Nvidia (il che è estremo e non ha molto senso a mio avviso, basta prendere l'esempio degli iPhone per rendersene conto), l'impatto implicito sul valore di mercato potrebbe raggiungere i 4.000 miliardi di dollari.

Possiamo discutere sulla definizione di “frode”, perché non è così facile stimare la vita utile di un'apparecchiatura soggetta a un'innovazione annuale più o meno forte. Ma il meccanismo economico è indiscutibile: la fattura viene rimandata al futuro mentre la tecnologia accelera. È la divergenza che è strana. D'altra parte, come dicevo nel primo punto, si osserva effettivamente uno sforzo da parte della comunità open-source per produrre software che consentano di utilizzare gli ultimi modelli su chip di vecchia generazione. Ed è del tutto possibile che, nei fatti, i chip di ultima generazione si rivelino molto resistenti, soprattutto nell'ultima fase della loro vita, per applicazioni più semplici (e non di addestramento) presso clienti come noi.

Alla fine, forse questi segnali di allarme hanno impedito che la scommessa sull'IA fosse ancora più complicata di quanto non sia già. È la teoria un po' audace di Bank of America, che ritiene che questo scetticismo avvantaggi gli audaci, lasciando gli altri investitori sul ciglio della strada. Va da sé che il team di ricerca specializzato in semiconduttori della banca d'affari americana non ha alcun dubbio sulla solidità delle dinamiche del settore, nonostante il rumore di fondo.