WaveNet è un sistema in grado di elaborare un linguaggio umano realistico. Le sue prestazioni superano del 50% la tecnologia esistente che fino a oggi non riusciva a riprodurre la voce umana.
Google non ha mai tenuto nascosta la propria passione per l’intelligenza artificiale e sono numerose le risorse che vengono destinate alla ricerca e allo sviluppo in questo ambito. Basti pensare a chatbot (simulatore di conversazione) e ai robot che attraverso l’AI (Artificial Intelligence) si cimentano nella stesura di misteriosi versi post-moderni, tanto per citarne un paio. Ma di pari passo ad un fervore sempre più crescente rivolto verso i robot, Google sa bene che sono molti a temere un apocalisse robotico, e a questo proposito è stato creato un sistema capace di neutralizzare queste macchine prima ancora che facciano (volontariamente o involontariamente) male a qualcuno.
DeepMind è stata acquisita da Google per 500 milioni di dollari nel 2014. Il sistema DeepMind, nello specifico, cerca di mimare il meccanismo di funzionamento della mente umana e può essere programmato per imparare informazioni e rielaborarne altre autonomamente.
Nonostante i continui miglioramenti, gli assistenti di AI non hanno ancora nulla di umanoide. Quando riproducono frasi, il loro suono robotico distintivo non accenna ad ammansirsi. Ma a dare una svolta a questo problema ci ha pensato DeepMind che con il suo nuovo WaveNet, che ha fatto sì che l’AI riuscisse a compiere grandi passi verso la riproduzione e l’imitazione del parlato umano.
Ovviamente, la resa non è perfetta, ma il miglioramento effettivo è del 50% maggiore di qualsiasi altra tecnologia.
DeepMind fa anche qualcos’altro: una volta appresi una serie di brani di musica classica al pianoforte, sa creare brani propri originali. E’ possibile ascoltarne qualcuno sul blog ufficiale di DeepMind e il risultato è sorprendente. Di certo occorrerà ancora molto tempo prima di vedere questa tecnologia sul mercato, uno dei limiti maggiori consiste nel dispendio energetico ancora troppo elevato.
Solitamente i ricercatori evitano di modellare degli audio in formato raw, perché ticchettano velocemente; in genere di tratta di 16.00 campioni al secondo, con strutture importanti a più scale temporali. Il fatto di essere riusciti a costruire un modello autoregressivo, in cui la previsione di ogni campione viene influenzata dalla serie che lo precede, è una sfida chiaramente impegnativa.
Soltanto il tempo saprà dire se questo sistema porterà a qualcosa di clamoroso. Forse in un futuro non troppo remoto avremo la possibilità di chiacchierare con i nostri dispositivi.
Nel momento in cui il mondo saluta Papa Francesco, riflettiamo sulla sua visione della tecnologia…
La startup svedese IntuiCell ha sviluppato Luna, un robot quadrupede che non si affida a…
Gli Stati Uniti lanciano un piano nazionale per introdurre l'IA nelle scuole. Opportunità, rischi e…
Dexelance e Meridiani puntano sull’intelligenza artificiale per aggiornare il processo tra idea progettuale e visualizzazione…
BlueIT ha inaugurato il suo Innovation Hub nel cuore della Campagna Cremasca. La sede è…
Lo Zenbook A14 è il nuovo ultraleggero firmato ASUS: design in Ceraluminum™, prestazioni AI con…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011