NVIDIA e Arm: le ragioni di un’acquisizione

È di questi giorni la notizia della proposta di NVIDIA per l’acquisizione di Arm per una cifra di circa 40 miliardi di dollari che, se tutto andrà a buon fine, rappresenterà la cifra più alta degli ultimi anni per l’acquisizione di una società di semiconduttori, dopo le offerte di Broadcom per l’acquisto di Qualcomm per 117 miliardi di dollari e di Qualcomm per l’acquisto di NXP per 44 miliardi, entrambe fallite per motivi geopolitici. Da segnalare, sempre in ambito M&A, la recente acquisizione di Maxim Integrated da parte di Analog Devices per 21 miliardi, una partita, questa, tutta americana che sicuramente andrà a buon fine.

Ma chi sono e cosa producono queste due società, note ai più solamente per alcuni aspetti della loro attività?

NVIDIA è leader indiscusso nel campo delle GPU e dell’intelligenza artificiale con applicazioni rivolte principalmente alla computer graphic, ai data center ed alla guida autonoma.

Al contrario delle CPU, le GPU, possono gestire molte diverse attività contemporaneamente; nel campo dell’intelligenza artificiale è possibile suddividere più facilmente le esigenze di elaborazione tra più unità che, lavorando in parallelo, garantiscono una maggior velocità complessiva con un minore utilizzo di energia.

Come, del resto, nel campo dell’elaborazione grafica, da dove NVIDIA ha iniziato la propria attività e dove, ancor oggi, trae i maggiori ricavi. Un livello di ricavi che sta per essere raggiunto e superato da quelli in ambito Data Center e HPC, fortemente influenzato dalle applicazioni di Intelligenza Artificiale. Come si vede nel grafico, in questo settore i ricavi di NVIDIA sono cresciuti del 167% anno su anno, a quota 1,752 miliardi di dollari nell’ultimo trimestre, spingendo il valore del titolo azionario oltre la soglia dei 500 dollari per azione, e facendo di NVIDIA la prima società per capitalizzazione di borsa tra quelle del mercato  dei semiconduttori. Molto più di Intel, che capitalizza circa 200 miliardi (contro i 300 di NVIDIA), pur vantando ricavi 5 volte superiori.

Secondo Bill Dally, chief scientist e senior vice president of research di NVIDIA, tra novembre 2012 e maggio 2020, le prestazioni dei chip NVIDIA sono aumentate di 317 volte per un’importante classe di calcoli AI.

Questo incremento è da attribuire sia all’hardware che al software, con ricadute che vanno dai grandi sistemi di elaborazione dati, alle board per guida autonoma, al riconoscimento dei volti e della voce.

Jensen Huang, fondatore e CEO di NVIDIA.

L’intelligenza artificiale, la forza tecnologica più potente del nostro tempo, ha richiesto una nuova capacità di elaborazione“, ha affermato Jensen Huang, fondatore e CEO di NVIDIA. “Negli anni a venire, trilioni di computer che eseguono l’IA creeranno un nuovo Internet delle cose che sarà migliaia di volte più grande dell’Internet delle persone di oggi.  La nostra combinazione creerà un’azienda posizionata in modo favoloso per l’era dell’IA.”

Un esempio di cosa ciò significhi in pratica, sta arrivando dalla grande distribuzione dove l’introduzione dell’intelligenza artificiale associata ad una capacità di elaborazione straordinaria, farà sparire le casse. E non ci riferiamo ai progetti obsoleti basati su RFiD o simili, ma alla capacità di un complesso sistema di telecamere di riprendere i clienti intenti negli acquisti, riconoscendo ciascun oggetto prelevato dagli scaffali e messo nel carrello della spesa. Magari ripreso da più angolazioni in caso di dubbio, e integrato con un sistema di sensori ad hoc. Senza alcun ulteriore controllo il cliente potrà uscire dal negozio e il conto verrà addebitato automaticamente sulla sua carta di credito.

Leader in questo settore è Amazon Go col suo sistema Just Walk Out e con migliaia di punti vendita già operativi negli Stati Uniti. Anche in Europa e nel resto del mondo sono in corso sperimentazioni e i primi supermercati senza casse dovrebbero aprire nel nostro paese l’anno prossimo.

Amazon Go, il primo negozio senza casse.

Altre applicazioni sono in arrivo nell’ambito del riconoscimento facciale, che interesseranno principalmente i trasporti e i sistemi di sicurezza.

Anche per quanto riguarda le lingue e il riconoscimento vocale (con relativa traduzione), l’intelligenza artificiale ha già raggiunto un livello di efficienza tale da fare sostenere a molti che in futuro lo studio delle lingue non sarà più necessario. Tra questi, Christopher Manning, professore di machine learning, linguistica e informatica alla Stanford University che sostiene che la tecnologia di traduzione computerizzata sarà addirittura migliore di quella dei traduttori umani.

Le applicazioni pratiche sono già numerose, come quella offerta dall’ultimissimo chip per smartphone Snapdragon 865 che integra un sistema di traduzione in tempo reale abilitato da avanzati algoritmi di intelligenza artificiale e che consente la traduzione simultanea, in entrambi i sensi, di quanto detto al telefono dai due interlocutori.

Dal Cloud al dispositivo

L’esempio appena citato è una dimostrazione di come l’intelligenza artificiale stia sempre di più migrando verso i dispositivi, ovvero verso le applicazioni di edge computing. In sostanza sempre più spesso il nostro dispositivo portatile (cellulare, orologio, apparecchio medicale, ecc.) dovrà avere la possibilità di eseguire in locale e in tempo reale gli algoritmi di intelligenza artificiale. Che saranno sempre più complessi e numerosi e che richiederanno sempre più capacità computazionale, cosa questa che fa a pugni con la necessità di mantenere bassi i consumi.

Per mantenere bassi i consumi è necessario utilizzare transistor sempre più piccoli, spingendo la tecnologia costruttiva verso limiti ormai invalicabili.

L’Apple A14 , con processo 5nm, integra 11,8 miliardi di transistor.

Attualmente la tecnologia di punta di TSMC, la più grande fonderia indipendente al mondo, si basa su processi a 5, 7 e 10 nm, mentre la road-map per il futuro, perlomeno per quanto riguarda il silicio, si ferma ai 2 nm, limite invalicabile per ragioni fisiche. Per avere un ordine di grandezza di cosa è possibile fare con queste tecnologie, il chip citato in precedenza, lo Snapdragon 865 realizzato con tecnologia a 7 nm, contiene quasi 100 milioni di transistor per mm quadrato, mentre il suo predecessore, lo Snapdragon 835 realizzato con tecnologia a 10 nm, contiene 52 milioni di transistor per mmq.

Il nuovissimo chip A14 Bionic di Apple realizzato con tecnologia a 5 nm di transistor ne contiene 171 milioni per millimetro quadro e complessivamente fa uso di 11,8 miliardi di transistor.

È evidente che, al di là della tecnologia utilizzata, questi processori debbono presentare un’altissima efficienza energetica. E qual è la società più all’avanguardia in questo settore?

Guarda caso proprio Arm Holdings che, lo ricordiamo, non produce silicio, ovvero i chip, ma IP, cioè dei brevetti che riguardano sia l’hardawre che il software con cui costruire e fare funzionare al meglio i processori, brevetti che Arm vende a quasi tutti i produttori di semiconduttori. Tant’è che si stima che ad oggi siano stati prodotti nel mondo oltre 160 miliardi di circuiti integrati che in qualche modo utilizzano la tecnologia Arm. Una cifra enorme!

La storia di Arm

ARM Holdings, che ha sede a Cambridge, nel Regno Unito,  è stata fondata nel novembre del 1990 come Advanced RISC Machines Ltd, una joint venture tra Acorn Computers, Apple e VLSI Technology al fine di sviluppare una linea di microprocessori RISC, inizialmente utilizzati nei computer Acorn Archimedes e nei palmari Apple Newton. Nel 1998 la società cambiò ragione sociale da Advanced RISC Machines Ltd a ARM Ltd; nello stesso anno la  società venne quotata al London Stock Exchange e al NASDAQ. Negli anni successivi ARM acquisì numerose piccole società specializzate nello sviluppo di hardware e software. Nel 2016 ARM venne acquisita  dalla conglomerata giapponese di tecnologia e tlc SoftBank per 31 miliardi di dollari. SoftBank contava in una rapida crescita della società: in realtà, se dal punto di vista tecnologico ARM ha raggiunto importanti traguardi, per quanto riguarda i risultati finanziari, le cose non sono andate altrettanto bene. Oggi il fatturato di ARM è di circa 1,4 miliardi di sterline.

I processori ARM si basano sulla architettura RISC (computer con set di istruzioni ridotto) a 32 e 64 bit, progettati per eseguire un numero inferiore di istruzioni in modo che possano operare a una velocità più elevata, eseguendo più istruzioni al secondo (MIPS). Eliminando le istruzioni non necessarie e ottimizzando i percorsi, i processori RISC offrono anche prestazioni energetiche particolarmente elevate che li rendono adatti a dispositivi sempre più miniaturizzati.

Negli ultimi anni, particolare successo hanno riscosso i processori con tecnologia ARM Cortex delle serie A (alte prestazioni), R (real time) e M (basso consumo).

Per quanto riguarda i data center e i servizi cloud, dopo aver affidato con scarsi risultati a società esterne lo sviluppo di nuovi prodotti (ricordiamo, ad esempio, Qualcomm con i chip Centriq), da alcuni anni Arm ha ripreso lo sviluppo in proprio annunciando i chip Neoverse N1 e E1, specifici per l’infrastruttura Internet.

I core N1 ed E1 mirano a competere con Intel Xeon e AMD Epyc, rispetto ai quali offrono sicuramente una migliore efficienza energetica. E nei data center dove sono ammassati migliaia di schede di elaborazione, l’aspetto energetico ha la sua importanza in termini di riduzione dei costi e di accesso a fonti energetiche adeguate. Lo scorso anno Amazon ha iniziato ad utilizzare nei suoi data center il SoC Graviton  basato su tecnologia ARM Cortex ottenendo un significativo risparmio sui costi.

La roadmap, recentemente annunciata, della piattaforma Neoverse.

Attualmente il processore più performante dal punto di vista computazionale è il chip N1 con core a 7 nm e tecnologia Neon per accelerare le operazioni di Intelligenza Artificiale.

Se non che, proprio due giorni fa ARM ha presentato il suo nuovo core server V1 “Zeus”, con una capacità computazionale del 50% superiore all’attuale core N1 e l’adozione di estensioni vettoriali scalabili e HBM2e.

ARM ha anche presentato la sua piattaforma N2, progettata per racchiudere il maggior numero di core in un TDP limitato, migliorando comunque l’IPC del 40%.

ARM ha anche svelato i suoi piani per progetti basati su chiplet di nuova generazione e soluzioni di elaborazione eterogenee che sfruttano i protocolli standard del settore.

I due nuovi design supportano processi sia a 7 nm che a 5 nm, PCIe 5.0, DDR5 e HBM2E / HBM3. 

40 miliardi sono troppi per ARM?

A molti questa cifra può sembrare spropositata, specie se confrontata con l’acquisizione di Mellanox (appena …7 miliardi) che ha già contribuito ad un aumento significativo ed immediato del fatturato di NVIDIA. Sicuramente un ottimo affare. Altri sostengono che è il giusto prezzo per le tante opportunità che l’acquisizione di ARM apre, in particolare:

– Rafforzare la propria posizione nel campo dei data center e dei supercomputer, settore nel quale realizza attualmente le maggiori vendite.

Il supercomputer Fugaku, primo nella TOP500.

NVIDIA ha capito che la tecnologia delle CPU di Arm in questo settore ha grandi potenzialità come dimostrato dal supercomputer  Fugaku (1° nella Top500) e dal SoC  Fujitsu A64FX che lo alimenta, basato su tecnologia Arm. La combinazione delle CPU basate su Arm con gli acceleratori NVIDIA e le soluzioni di interconnessione InfiniBand di Mellanox dovrebbe garantire prestazioni irraggiungibili, anche dal punto di vista energetico oltre che computazionale. E con sempre più persone connesse che lavorano da casa, è opinione comune che il mercato dei data center  continuerà a crescere anche in futuro.

– Offrire un’alternativa  nel settore dei personal computer e dei server ai processori di Intel, società che attualmente domina il mercato, approfittando anche dei ritardi di Intel nel passaggio verso i processi a 7 e 5 nm. A tale proposito, da tempo si vocifera di un passaggio dei Mac di Apple alla tecnologia ARM. Una transizione di questo genere non è cosa da poco, con complicazioni su molti fronti, soprattutto per le applicazioni più professionali. Il mercato dei PC domestici, dopo un sensibile calo negli ultimi anni, è in forte ripresa, spinto anch’esso dalle conseguenze della pandemia. In questo campo c’è già un precedente con Microsoft e il suo Surface Pro X equipaggiato con Windows e processori ARM, un prodotto non molto convincente dal punto di vista delle prestazioni computazionali ma con qualità energetiche di prim’ordine.

– Entrare con le proprie tecnologie di AI e ML nel mondo embedded, dell’edge computing e dell’IoT, dove la tecnologia ARM la fa da padrona.

Probabilmente a NVIDIA basterà aver successo in uno di questi tre campi per giustificare un investimento così ingente.

Tuttavia, a minare il successo dell’operazione potrebbe essere altro, ad iniziare dalle autorità di controllo nazionali, in particolare quelle britanniche e cinesi. Le prime non vedono di buon occhio la dipartita (anche se nei fatti così non sarà) della più importante società tecnologica del Regno Unito; le seconde temono che ARM possa uniformarsi alla politica di boicottaggio tecnologico intrapresa dalla presidenza Trump nei confronti della Cina.

Senza contare l’ostilità più o meno velata della maggior parte delle società licenziatarie di ARM, ovvero di una grossa fetta del mercato dei semiconduttori. Fino ad oggi ARM era considerata una sorta di “Svizzera tecnologica”, una società neutrale con cui condividere progetti più o meno segreti, alla ricerca comune delle migliori soluzioni (IP) possibili. Per alcuni clienti di ARM, NVIDIA è un concorrente o un quasi-concorrente; come potranno – queste società – continuare a collaborare con ARM?

 

 

Post correlati

Commenta questo articolo