John Searle, noto filosofo americano, ha avuto un ruolo significativo nel dibattito sulla natura e il potenziale dell’intelligenza artificiale (AI). Nel suo lavoro, ha esplorato la questione centrale se un computer o una macchina può ragionare o comprendere.
Searle è forse meglio conosciuto per il suo esperimento mentale chiamato “l’argomento della Stanza Cinese”. Questo esperimento mette in discussione l’idea che un computer possa comprendere.
Il test ipotizza in un uomo all’interno di una stanza che riceve foglietti scritti in cinese da una fessura sulla porta. L’uomo non capisce il cinese, ma ha un libro di istruzioni che gli dice come rispondere a ogni possibile combinazione di caratteri cinesi. All’esterno della stanza, le persone vedrebbero i fogli in uscita e penserebbero che qualcuno dentro la stanza capisca il cinese. In realtà il soggetto sta solo seguendo istruzioni.
Questo è analogo a come un computer esegue un programma. Searle sostiene che, proprio come l’uomo nella stanza, un computer non capisce davvero le informazioni che sta elaborando. Segue solo un insieme di regole predefinite.
John Searle identifica due diverse concezioni dell’IA: intelligenza artificiale forte (Strong AI) e debole (Weak AI).
La “Strong AI” afferma che le macchine possono davvero pensare e avere una mente. Secondo questa visione, una macchina con sufficiente potenza e giusta programmazione potrebbe davvero capire, apprendere e rispondere alle informazioni come un essere umano.
Searle è molto critico nei confronti della Strong AI. Nonostante un programma possa simulare il comportamento umano, non significa che capisca davvero ciò che sta facendo.
La “Weak AI”, di cui Searle è un sostenitore, prevede che le macchine possano simulare il pensiero umano senza possederlo. Questo significa che un computer può essere programmato per eseguire compiti complessi e dare risposte intelligenti, ma non sarà mai autocosciente.
La posizione di Searle sull’intelligenza artificialepuò essere vista come un avversario positivo per il campo dell’AI sfidando i ricercatori a dimostrare non solo che un computer può sembrare intelligente, ma anche a capire cosa significhi veramente per una macchina “comprendere”.
Invece, secondo il filosofo Daniel C. Dennet la coscienza o autocoscienza è una questione di poca importanza. Per Dennett, il fatto che una macchina possa effettivamente ‘pensare’ o essere ‘cosciente’ è meno rilevante di quanto si possa immaginare. Invece di chiedersi se un’IA ha una mente in senso classico, Dennett suggerisce di concentrarsi su ciò che un’IA può effettivamente fare; ovvero, la sua capacità di apprendere, adattarsi, risolvere problemi e contribuire alla cognizione umana. Dennett vede l’intelligenza artificiale nient’altro che come un’estensione dei processi cognitivi umani, sottolinea che la IA non dovrebbe essere vista solo come un replica della pensiero, ma piuttosto come uno strumento che aiuta l’umanità ad estendere le proprie capacità cognitive.
La nuova serie Zyxel USG FLEX H ridefinisce la strategia di sicurezza per PMI e…
Il Fortinet SMB Summit raddoppia e conferma della cybersecurity per le PMI italiane. Soluzioni integrate,…
Gli strumenti con laser e l’intelligenza artificiale possono contribuire a diminuire il numero di incidenti…
Il Gruppo E stringe un accordo strategioi in ambito AI: con Araneum Group per il…
Il progetto con intelligenza artificiale, chiamato Mulberry, è il prossimo tassello dell’ecosistema di benessere di…
Meta AI, l’intelligenza artificiale di Zuckerberg, sbarca su WhatsApp tra entusiasmo, sospetti e qualche risata…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011