Non si tratta di magia, non fa miracoli, almeno non al momento. Allo stesso tempo dobbiamo mantenere tutte le cautele nel gestire una materia che si sta evolvendo rapidamente.
La paura più radicata è il “terrore di terminator” ovvero la possibilità che le macchine (che siano robot o software) si possano rivoltare e scagliarsi contro l’uomo. Di queste teorie sono pieni i libri di fantascienza. Ovviamente non tutti pensano che le intelligenze artificiali si impadroniscano dei “corpi” di robot e macchine per distrugger e il nostro mondo. Questa paura prende sembianze diverse: dalla guerra atomica (alla War Games) scatenata dai computer fino all’annientamento del lavoro umano, forse il timore più diffuso.
Anche questa rientra nelle paure pressoché irrazionali, il mondo è andato incontro a cambiamenti tecnologici anche più profondi di questo mantenendo intatte le prerogative degli uomini. Ad ogni rivoluzione industriale è poi seguito un riassetto che ha visto la diffusione di nuovi lavori al posto di quelli resi obsoleti dai cambiamenti tecnologici, ma anche sociali.
Certo, fa pensare che grandi personalità come Elon Musk e Stephen Hawiking ne fossero così preoccupati da firmare gli “Asilomar AI Principles” (Principi Asilomar per AI). Si tratta di una lista composta da 23 principi-guida per uno sviluppo dell’AI produttivo e sicuro. Sono stati sviluppati dopo che l’Istituto Future of Life è riuscito a riunire insieme decine di personalità che hanno preso parte alla loro conferenza “Beneficial AI”. Gli esperti, le cui specializzazioni spaziavano dalla robotica, alla fisica, all’economia, alla filosofia, hanno intercorso dibattiti accesi in tema della sicurezza dell’AI, ma anche sull’impatto economico tra i lavoratori umani e sull’etica della programmazione, solo per citarne alcuni. Al fine di rendere la lista effettiva, il requisito era che almeno il 90% degli esperti fosse concorde. I principi sono stati approvati da 892 ricercatori di AI o robotica e 1.445 altri esperti, tra cui appunto il Ceo di Tesla Elon Musk e il compianto fisico Stephen Hawking. Alcuni dei principi – come la trasparenza e la condivisione aperta della ricerca tra le imprese competitive, però sembrano essere meno probabili di altre. Anche se non verranno attuati pienamente, i 23 principi migliorare lo sviluppo dell’AI, garantendone un’etica condivisa.
Proprio questo è il punto: l’etica, per non essere dannose tutte le attività umane dovrebbero includerla nativamente, una sorta di “etica by design”, solo così l’AI potrà essere davvero utile all’uomo.
I Podcast hanno conquistato l'Italia, qui la lista dei migliori Podcaster Italiani in base al…
Le due startup italiane SWITCH e Wayla raccolgono fondi per rivoluzionare il trasporto urbano con…
Il report di NTT DATA esplora il divario tra innovazione AI e responsabilità, evidenziando l'importanza…
Microsoft ha presentato il Majorana 1, un chip quantistico topologico che punta a risolvere problemi…
L’intelligenza artificiale può simulare, comprendere e suscitare emozioni, creando un dialogo emotivo che richiede consapevolezza.…
Meta AI ha sviluppato una tecnologia per decodificare l'attività cerebrale in testo tramite reti neurali…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011