
25 MAR, 2025
Di Liontrust Asset Management

AUTORE: Storm Uru e Clare Pleydell-Bouverie, co-gestori del fondo Liontrust Global Innovation team
Le istanze di capitolazione del mercato diffusa spesso danno origine ad alcune delle più grandi opportunità. Abbiamo visto questo accadere nel luglio 2024, e abbiamo visto uno scenario simile nelle ultime settimane. Ci troviamo attualmente in un'età d'oro per investire in innovatori tecnologici - i cambiamenti tecnologici di piattaforma sono opportunità che si presentano ogni una o due generazioni, e siamo solo a due anni dalla costruzione dell'infrastruttura AI, con un dispiegamento che ha appena iniziato a graffiare la superficie. Il comportamento dei prezzi recente suggerisce che la musica si fermi improvvisamente. Abbiamo recentemente incontrato team di gestione in tutto Silicon Valley e il messaggio dall'ecosistema non potrebbe essere più diverso.
Non aderiamo tuttavia a una visione ottimistica top-down a livello di tutto il settore - i cambiamenti di piattaforma sono disruptivi e molte delle aziende che sono reliquie dell'ultimo ciclo tecnologico erano completamente se non sopravvalutate sulle nostre stime entrando nel 2025. L'insieme di opportunità è saldamente a livello di singolo titolo - i vincitori del prossimo decennio non saranno gli stessi dell'ultimo, ma alcuni di questi vincitori emergenti sono stati coinvolti nella vendita punitiva. L'economia unitaria delle principali aziende di software AI non è cambiata, né lo è la domanda di calcolo AI. Se qualcosa, hanno accelerato nel Q1.
Siamo concentrati sulle dislocazioni dove i fondamentali si sono in realtà rafforzati nelle ultime settimane grazie a progressi tecnologici, eppure i prezzi delle azioni si sono mossi nella direzione opposta. Nel corso delle ultime settimane, abbiamo tutti appreso che i modelli di ragionamento (come l'o1 di OpenAI, l'R1 di DeepSeek o il QwQ-32B di Alibaba) richiedono fino a 100 volte più calcolo rispetto alle precedenti generazioni di modelli addestrati a dare risposte immediate, nonostante siano più efficienti in termini di costi a prima vista. Più il modello pensa, più calcolo è richiesto, a cui si aggiunge, il minor costo di esecuzione dell'AI (guidato da innovazioni architettoniche come abbiamo visto da DeepSeek), la maggiore è la domanda di consumo.
Il risultato? Abbiamo bisogno di molto più dei blocchi di costruzione dell'infrastruttura AI critica - Nvidia GPUs, Broadcom networking chips e ASICs, Amphenol interconnects per citarne alcuni. Abbiamo già assistito alla disponibilità di chip Nvidia Hopper precipitare sui fornitori di servizi cloud pubblici come AWS e GCP, con i loro prezzi di affitto che si muovono nella direzione opposta da quando è stato rilasciato R1. Ci aspettiamo un fenomeno simile con il rilascio del modello QwQ-32B di Albaba. L'inferenza a basso costo offre le chiavi per applicazioni AI profittevoli su larga scala.
Ciò significa, mentre entriamo nella prossima fase di sviluppo dell'AI, che abbiamo bisogno sia di una maggiore capacità di calcolo che di soluzioni sempre più specializzate. Per avere una prova di questa domanda, basta guardare i risultati più recenti di Broadcom. L'azienda non solo ha conseguito un risultato superiore e inferiore, ma sono stati i commenti del CEO Hock Tan a fornire l'indicatore più chiaro delle future esigenze di infrastruttura di calcolo: con la diffusione dell'AI in tutta l'economia, avremo bisogno di più calcolo accelerato personalizzato. Infatti, solo negli ultimi sei mesi, Broadcom ha iniziato a collaborare con quattro nuovi clienti hyperscale per sviluppare un'infrastruttura di calcolo accelerato su larga scala e personalizzata.
Il mercato in rapida espansione degli ASIC personalizzati (chip che gli hyperscalers stanno sviluppando da soli, insieme a Broadcom) è stato originariamente pionieristico dai TPU di Google per alimentare la ricerca su internet. Ora sta abilitando il dispiegamento dell'IA su larga scala. Attualmente, il mercato globale per gli ASIC di Broadcom si aggira intorno ai 12 miliardi di dollari all'anno, ma si prevede che aumenterà ad almeno 70 miliardi entro il 2027, senza nemmeno tenere conto di questi nuovi clienti. Questa traiettoria rispecchia la crescita inarrestabile della pubblicità digitale un decennio fa e segnala l'inizio di una grande espansione strutturale.
Mentre l'infrastruttura di calcolo accelerato continua a espandersi e il costo dell'intelligenza diminuisce, i sfidanti in ogni settore sono pronti a ridisegnare la dinamica del settore e a minacciare la dominanza competitiva dei giocatori consolidati. Da Pure Storage che interrompe nomi storici come Dell e HP nel mercato dello storage di calcolo, a SoundHound che sfida l'Alexa di Amazon e la Siri di Apple nello spazio dell'IA vocale, gli innovatori emergenti stanno sfruttando basi di costo inferiori e cicli di innovazione più rapidi per offrire nuovi prodotti che deliziano i clienti.
La stessa dinamica si sta verificando nei servizi finanziari, dove aziende come Upstart e Lemonade operano più efficientemente di giganti come Wells Fargo e Chubb, consentendo loro di adattarsi più rapidamente e portare nuove offerte sul mercato. Queste forze dirompenti possono essere osservate in tutto il retail, la scoperta di farmaci, la consegna medica, la pubblicità mirata e innumerevoli altre industrie.
Quando un intero ecosistema è in gara per soddisfare la domanda e ancora vincolato dalla capacità, i venti contrari macroeconomici come i dazi - sebbene tutt'altro che utili - sono un diversivo. Ancora una volta i bambini sono stati gettati via con l'acqua del bagno e il sentimento ha prevalso sui fondamentali. L'innovazione cinese in IA soffoca gli sforzi degli Stati Uniti? Crediamo che il contrario sia vero. La competizione sta semplicemente accelerando il ritmo di innovazione di tutti i cavalli in gara.