Memoria e archiviazione fattori chiave per il successo delle applicazioni di IA e ML

L’esplosione generale del volume di dati ha portato ad un’enorme crescita delle applicazioni di Intelligenza Artificiale (AI) e Machine Learning (ML), in cui la memoria e l’archiviazione sono fattori chiave per il successo e la velocità delle applicazioni associate. I sistemi di memoria e archiviazione tradizionali non sono progettati per affrontare una sfida come l’accesso a questi set di dati di così grandi dimensioni quindi, un importante ostacolo da superare per le applicazioni AI e ML che stanno entrando tra le applicazioni più importanti in IT, è la riduzione del tempo complessivo di ritrovamento ed elaborazione per garantire il successo nel funzionamento di questi sistemi.

Prima di entrare nel vivo dei dettagli del perché memoria e archiviazione siano essenziali per le applicazioni AI e ML, è importante capire come queste funzionano. La memoria, e più precisamente DRAM, è necessaria come luogo dove tenere i dati che devono essere trasformati il più rapidamente possibile in informazioni utili. La conservazione, o Flash, più specificamente è necessaria per archiviare sia i dati grezzi che i dati che sono stati già trasformati in modo tale che non vadano persi. Il processo base per la memoria e l’archiviazione dei dati è “acquisire, trasformare e decidere”, il più rapidamente possibile.

Server e AI

I server utilizzati per lo sviluppo dell’IA sono passati da una configurazione centrata su CPU a quella centrata su più GPU. I server AI hanno indici di calcolo e di memoria significativamente maggiori rispetto ai server tradizionali, necessari visti i loro flussi di lavoro, multipli e rapidi. Lo sviluppo dell’AI sta spingendo i contenuti più in alto nel panorama hardware mentre gli sviluppatori passano dalle architetture tradizionali a quelle che sfruttano le nuove tecnologie per accelerare i flussi di lavoro.

Secondo Gartner, una delle principali società di ricerca e consulenza che fornisce una approfondita visione per quanto riguarda le tecnologiche aziendali, sia gli Inferencing Server che i Training Server per le applicazioni AI e ML offrono maggiori velocità di elaborazione grazie a memoria e archiviazione.

Gli Inferencing Server, secondo Gartner, usano un algoritmo di apprendimento automatico specializzato nel fare previsioni. I dati IoT possono essere utilizzati come input per un modello di machine learning specializzato, consentendo previsioni che possono indirizzare la logica decisionale sul dispositivo, sull’Edge gateway o altrove nel sistema IoT. Questi server offrono prestazioni di elaborazione notevolmente migliorate, avvicinandosi al 20% in più di DRAM rispetto a un server standard.

I Training Server, come ad esempio i server GPU basati su Nvidia, collegati in grandi training network, sono ciò che consente ai prodotti Facebook di eseguire il riconoscimento di oggetti e volti e la traduzione di testi in tempo reale, oltre a descrivere e comprendere i contenuti di foto e video. Le capacità apprese durante il deep learning training vengono messe a frutto. I Training Server utilizzano le schede acceleratrici di Nvidia, per esempio, e offrono circa 2,5 volte più DRAM di un server standard.

ATTENZIONE: quello che hai appena letto è un estratto dell'articolo. Per continuare la lettura registrati oppure effettua l'accesso.

Post correlati

Commenta questo articolo