Nvidia è all’avanguardia nell’utilizzo di GPU per applicazioni di AI e di machine learning e ha da poco presentato l’architettura di calcolo Volta GPU e il data center GPU Tesla V100.
L’intelligenza artificiale (AI) e il machine learning rappresentano degli sviluppi tecnologici incredibilmente importanti che richiedono enormi quantità di potenza di calcolo. Microsoft – attualmente – sta tenendo la conferenza per gli sviluppatori Build 2017 e non figura alcun prodotto che, in un modo o nell’altro, non integri l’AI o l’apprendimento automatico.
Uno dei modi migliori per progettare il miglior tipo di infrastruttura di calcolo ad alta velocità è l’utilizzo delle GPU, che può essere più efficiente delle CPU di uso comune.
Nvidia ha definito Volta come la “più potente al mondo” e l’ha costruita con 21 miliardi di transistor che forniscono prestazioni di apprendimento approfondito pari a 100 CPU. Ciò equivale a cinque volte la performance dell’architettura Pascal in termini di picco di teraflops e 15 volte la performance di Maxwell. Secondo Nvidia, le prestazioni di Volta quadruplicano quel miglioramento che la legge di Moore prevede.
Secondo Jensen Huang, fondatore e amministratore delegato di Nvidia “L’apprendimento approfondito, ovvero la forma di approccio innovativo di AI che crea un software per computer che impara, ha una domanda insaziabile di potenza di elaborazione. Migliaia di ingegneri della Nvidia hanno impiegato tre anni a costruire Volta non solo per aiutare a soddisfare questa esigenza, ma anche per consentire all’industria di comprendere il potenziale in grado di cambiare la vita di tutti grazie all’AI”.
Oltre all’architettura Volta, Nvidia ha anche presentato data center GPU Tesla V100, che incorpora una serie di nuove tecnologie. Essi includono quanto segue, secondo quanto comunicato nell’annuncio da Nvidia:
– Tensor Cores, progettati per accelerare i carichi di lavoro dell’AI. Dotata di Tensor Cores 640, la V100 offre 120 teraflop di prestazioni di apprendimento approfondito, equivalenti alle prestazioni di 100 CPU.
– Nuova architettura delle GPU con oltre 21 miliardi di transistor. Unisce i nuclei CUDA e i Tensor Cores all’interno di un’architettura unificata, fornendo la prestazione di un supercomputer AI in una singola GPU.
– NVLink fornisce la prossima generazione di interconnessioni ad alta velocità che collegano le GPU e le GPU alle CPU, il doppio di NVLink di prima generazione.
– 900 GB / sec HBM2 DRAM, sviluppato in collaborazione con Samsung, raggiunge il 50% in più di larghezza di banda di memoria rispetto alle GPU della precedente generazione, essenziale per supportare la straordinaria velocità di elaborazione di Volta.
– Software ottimizzato per Volta, inclusi i software CUDA, cuDNN e TensorRT, che sia i framework che le applicazioni possono sfruttare per accelerare l’AI e la ricerca.
Alcune organizzazioni stanno progettando di utilizzare Volta nelle loro applicazioni, tra cui Amazon Web Services, Baidu, Facebook, Google e Microsoft. Poiché l’AI e il machine learning sono sempre più integrati nella tecnologia utilizzata ogni giorno, probabilmente saranno soluzioni come le GPU Volta e Tesla V100 ad alimentarle.
I Podcast hanno conquistato l'Italia, qui la lista dei migliori Podcaster Italiani in base al…
Le due startup italiane SWITCH e Wayla raccolgono fondi per rivoluzionare il trasporto urbano con…
Il report di NTT DATA esplora il divario tra innovazione AI e responsabilità, evidenziando l'importanza…
Microsoft ha presentato il Majorana 1, un chip quantistico topologico che punta a risolvere problemi…
L’intelligenza artificiale può simulare, comprendere e suscitare emozioni, creando un dialogo emotivo che richiede consapevolezza.…
Meta AI ha sviluppato una tecnologia per decodificare l'attività cerebrale in testo tramite reti neurali…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011