Stanza cinese: differenze tra le versioni

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Contenuto cancellato Contenuto aggiunto
mNessun oggetto della modifica
→‎Collegamenti esterni: Aggiunto il "Portale Informatica" nel template "Portale"
 
(48 versioni intermedie di 30 utenti non mostrate)
Riga 1: Riga 1:
La '''stanza cinese''' è un [[esperimento mentale]] ideato da [[John Searle]] come [[controesempio]] rispetto alla teoria dell'[[intelligenza artificiale forte]]. Alla base del ragionamento di Searle vi è l'idea che la [[sintassi]] non sia condizione sufficiente per la determinazione della [[semantica]].<ref name=":1" />
{{F|filosofia|marzo 2010}}
La '''Stanza cinese''' è un [[esperimento mentale]] ideato da [[John Searle]]. Esso è un [[controesempio]] della teoria dell'[[intelligenza artificiale forte]]. Alla base del ragionamento di Searle è che la [[sintassi]] (grammatica) non è equivalente alla [[semantica]] (significato).


Searle presentò l'argomentazione della Stanza cinese nel suo articolo "''Minds, Brains and Programs''" (Menti, cervelli e programmi) pubblicato nel [[1980]] dalla rivista scientifica ''Behavioral and Brain Sciences'' (e in lingua italiana da [[Le Scienze]])<ref>[[John R. Searle]], ''La mente è un programma?'', "Le Scienze" n. 259, marzo 1990</ref>. Da allora, è stato un pilastro del dibattito sull'ipotesi chiamata da Searle [[intelligenza artificiale forte]].
Searle presentò l'argomentazione della stanza cinese nell'articolo ''Minds, Brains and Programs'' (''Menti, cervelli e programmi''), pubblicato nel 1980 dalla rivista scientifica ''The'' ''Behavioral and Brain Sciences'' (in lingua italiana da ''[[Le Scienze]]''<ref>{{Cita pubblicazione|autore=John R. Searle|data=1990|titolo=La mente è un programma?|rivista=Le scienze|volume=|numero=259}}</ref>). Da allora tale argomentazione è stata un pilastro del dibattito intorno al tema dell'[[intelligenza artificiale forte]].<ref name=":6" />
[[File:John searle2 (cropped).jpg|miniatura|261x261px|John Searle]]


== Esperimento mentale: "Le macchine possono pensare?" ==
==Descrizione dell'esperimento==
I sostenitori dell' ''intelligenza artificiale forte'' sostengono che un computer opportunamente programmato non sia solo la simulazione o un modello della mente, ma che esso possa essere una mente. Esso cioè capisce, ha condizioni conoscitive e può pensare. L'argomento di Searle (o meglio, l'esperimento mentale) si oppone a questa posizione. L'argomentazione della stanza cinese è la seguente:


=== Intelligenza artificiale forte e debole ===
:Si supponga che, nel futuro, si possa costruire un computer che si comporti come se capisse il [[Lingua cinese|cinese]]. In altre parole, il computer prenderebbe dei simboli cinesi in ingresso, eseguirebbe un programma e produrrebbe altri simboli cinesi in uscita. Si supponga che il comportamento di questo computer sia così convincente da poter facilmente superare il [[test di Turing]]. In altre parole, il computer possa convincere un uomo che parla correttamente cinese (per esempio un cinese) di parlare con un altro uomo che parla correttamente cinese, mentre in realtà sta parlando con un calcolatore. A tutte le domande dell'umano il computer risponderebbe appropriatamente, in modo che l'umano si convinca di parlare con un altro umano che parla correttamente cinese. I sostenitori dell'intelligenza artificiale forte concludono che il computer ''capisce'' la lingua cinese, come farebbe una persona, in quanto non c'è nessuna differenza tra il comportamento della macchina e di un uomo che conosce il cinese.
Nel 1980 [[John Searle]] pubblicò ''Minds, Brains and Programs'' nella rivista ''The Behavioral and Brain Sciences''.<ref name=":5">{{Cita pubblicazione|autore=John. R. Searle|anno=1980|titolo=Minds, brains, and programs.|rivista=Behavioral and Brain Sciences|volume=3|numero=}}</ref>In questo articolo Searle espose la sua argomentazione e di seguito rispose alle principali obiezioni che vennero sollevate durante le sue presentazioni a diversi campus universitari. L'articolo di Searle, inoltre, fu pubblicato nella rivista insieme ai commenti ed alle critiche di 27 ricercatori di [[scienze cognitive]]. Questi 27 commenti furono seguiti dalle risposte di Searle ai suoi critici. Negli ultimi due decenni del ventesimo secolo, l'argomentazione della Stanza cinese fu oggetto di moltissime discussioni.<ref name=":6" />


Nel 1984, Searle presentò l'argomentazione della Stanza cinese nel libro ''Minds, Brains and Science'' e nel gennaio del 1990, il popolare periodico ''Scientific American'' portò il dibattito all'attenzione del mondo scientifico. Searle, allora, incluse l'argomentazione della Stanza cinese nell'articolo "Is the Brain's Mind a Computer Program?" a cui seguì un articolo di risposta, "''Could a Machine Think?''", scritto da Paul e Patricia Churchland. Poco tempo dopo, fu pubblicato un confronto sulla Stanza cinese tra Searle ed un altro eminente filosofo, [[Jerry Fodor]] (in Rosenthal (ed.) 1991).<ref name=":6">{{Cita web|url=https://plato.stanford.edu/entries/chinese-room/|titolo=The Chinese Room Argument|accesso=29 gennaio 2020}}</ref>
:Ora, Searle chiede di supporre che lui si sieda all'interno del calcolatore. In altre parole, egli si immagina in una piccola stanza (la stanza cinese) con un libro contenente la versione in inglese del programma utilizzato dal computer e carta e penna in abbondanza. Searle potrebbe ricevere scritte in cinese attraverso una finestra di ingresso, elaborarle seguendo le istruzioni del programma, e produrre altri simboli cinesi in uscita, in modo identico a quanto faceva il calcolatore. Searle fa notare che egli non capisce i simboli cinesi. Quindi la sua mancanza di comprensione dimostra che il calcolatore non può comprendere il cinese, poiché esso è nella sua stessa situazione. Il calcolatore è un semplice manipolatore di simboli, esattamente come lo è lui nella stanza cinese - e quindi i calcolatori non capiscono quello che stanno dicendo tanto quanto lui.


Nel testo ''Minds, brains and programs'' il filosofo John Searle riprende la domanda di [[Alan Turing]] circa la possibilità delle macchine di pensare, opponendosi alla tesi secondo cui l’intelligenza umana possa essere riprodotta all’interno di una macchina, che segue un [[programma]] preimpostato. In altri termini la tesi sostenuta da Turing e quindi dall’[[intelligenza artificiale forte]], intravede la possibilità per un [[computer]] di ottenere gli stessi esiti di una mente umana, cioè la possibilità di pensare, di avere stati cognitivi, di capire discorsi e domande per rispondere. L’impostazione di un programma consente alla macchina di elaborare gli input ricevuti per emettere, conseguentemente, un output. Il programma è costituito da simboli e regole di calcolo che consentono alla macchina di eseguire un procedimento determinato di manipolazione di simboli con i quali essa compone risposte.<ref name=":16">{{Cita pubblicazione|autore=Alan Turing|titolo=Computing Machinery and Intelligence|rivista=Mind|volume=LIX (236)|numero=|pp=433-460}}</ref>
==Esperimenti mentali==
Nel 1980, John Searle pubblicò "''Minds, Brains and Programs''" (Menti, Cervelli e Programmi) nella rivista ''The Behavioral and Brain Sciences''. In questo articolo, Searle espose la sua argomentazione e di seguito rispose alle principali obiezioni che erano state sollevate durante le sue presentazioni a diversi campus universitari (vedi la prossima sezione). Inoltre, l'articolo di Searle fu pubblicato nella rivista insieme ai commenti ed alle critiche di 27 ricercatori di [[scienze cognitive]]. Questi 27 commenti furono seguiti dalle risposte di Searle ai suoi critici.


L’idea principale del programma dell’[[Intelligenza artificiale forte|I.A. forte]] è quella che individua una corrispondenza di struttura e di funzionamento tra la mente umana e un computer. Viene in effetti stabilito il fatto che la mente, ricevendo dati (''input''), modificandoli e dandone altri (''output''), funzioni per mezzo di simboli elaborati da un’unità centrale di esecuzione che indica le procedure da compiersi.<ref name=":5" />
Negli ultimi due decenni del ventesimo secolo, l'argomentazione della Stanza cinese fu oggetto di moltissime discussioni. Nel 1984, Searle presentò l'argomentazione della Stanza cinese in un libro (''Minds, Brains and Science''). Nel gennaio 1990, il popolare periodico ''Scientific American'' portò il dibattito all'attenzione del mondo scientifico: Searle incluse l'argomentazione della Stanza cinese nel suo articolo "Is the Brain's Mind a Computer Program?". Il suo pezzo era seguito da un articolo di risposta, "''Could a Machine Think?''", scritto da Paul e Patricia Churchland. Poco tempo dopo, fu pubblicato un confronto sulla Stanza cinese tra Searle ed un altro eminente filosofo, [[Jerry Fodor]] (in Rosenthal (ed.) 1991).


Due teorie a sostegno del programma dell’intelligenza artificiale forte sono il [[Funzionalismo (filosofia della mente)|funzionalismo]] ed il computazionalismo.
Il cuore dell'argomentazione è una teorica simulazione umana di un computer simile alla [[Macchina di Turing]]. L'essere umano nella Stanza cinese segue istruzioni in inglese per manipolare simboli cinesi, mentre un computer esegue un programma scritto in un linguaggio di programmazione. L'uomo crea l'apparenza della comprensione del cinese seguendo le istruzioni di manipolazione dei simboli, ma non giunge per questo a capire il cinese. Poiché un computer non fa altro che ciò che fa l'uomo - manipolare simboli in base alla loro sola sintassi - nessun computer, semplicemente eseguendo un programma, giunge a comprendere realmente il cinese.
* La prima sostiene che uno stato mentale sia qualsiasi condizione causale interposta tra input e output, dunque, secondo tale teoria due sistemi con uguali processi causali hanno gli stessi stati mentali.
* Secondo il computazionalismo i processi mentali consistono in processi di calcolo che operano su simboli e tali processi sono equivalenti a quelli effettuati da un computer.<ref name=":7">{{Cita pubblicazione|autore=Larry Hauser|titolo=Chinese room argument|rivista=|volume=|numero=|pp=1-2}}</ref>


Contro questo programma Searle formula un’obiezione secondo cui la mente umana non può essere riprodotta solamente in termini [[Sintattica|sintattici]], poiché così non si tiene conto della sua qualità principale, ovvero l’[[intenzionalità]], che rimanda alla [[semantica]]. L’intenzionalità è la componente principale della mente umana ed è strettamente legata all’evento di coscienza. Evento di coscienza e intenzionalità sono considerate proprietà primitive e riguardano la capacità di un essere umano di formulare i propri obiettivi e di provare emozioni. Ogni azione, quindi, e ogni stato cognitivo richiedono, nella loro causalità, un trattamento diverso da quello sintattico, in quanto essi operano non solo sintatticamente, ma anche semanticamente, in relazione al significato dei termini.<ref name=":6" />
Questa argomentazione, basata strettamente sulla Stanza Cinese, è rivolta contro la teoria che Searle chiama [[intelligenza artificiale forte]]. Secondo tale teoria, un [[computer]] adeguatamente programmato (o lo stesso programma) può comprendere il linguaggio naturale e possedere effettivamente altre capacità mentali simili a quelle degli uomini che imita. Secondo l'intelligenza artificiale forte, un computer può giocare a
[[scacchi]] in modo intelligente, fare una mossa astuta, o capire il linguaggio. Per contro, l'[[Intelligenza artificiale forte#Intelligenza artificiale debole|intelligenza artificiale debole]] è la teoria secondo la quale i computer sono semplicemente utili nella [[psicologia]], nella [[linguistica]] ed in altre aree di studio, in parte perché possono simulare capacità mentali. Ma l'intelligenza artificiale debole non afferma che i computer possano effettivamente capire o che siano intelligenti. L'argomentazione della Stanza cinese non è rivolta all'intelligenza artificiale debole, né ha lo scopo di dimostrare che le macchine non possono pensare - per Searle i cervelli sono proprio macchine in grado di pensare. È volta a confutare la teoria che calcoli formali svolti su simboli possano generare il pensiero.


Searle, quindi, sostiene che l’intelligenza artificiale non possa essere equivalente a quella umana perché non è sufficiente elaborare programmi di manipolazione di simboli secondo regole sintattiche per generare un’attività mentale. Il fatto è che la mente umana comprende, elabora e si esprime attraverso un linguaggio le cui parole, da un lato sono investite di significato, e dall’altro determinano il modo in cui una risposta verrà data. Searle ribadisce come l’intenzionalità, intrecciata all’esperienza soggettiva, è molto più complessa della prestazione della macchina.<ref name=":6" />
Potremmo riassumere l'argomentazione più ristretta come una ''[[Ab absurdo|reductio ad absurdum]]'' contro l'intelligenza artificiale forte nel modo seguente. Sia L un linguaggio naturale e chiamiamo un "programma per L" un programma per conversare correntemente in L. Un sistema computazionale è qualsiasi [[sistema]], umano o meno, che può eseguire un [[programma (informatica)|programma]].


=== Intelligenza umana e artificiale a confronto ===
# Se l'intelligenza artificiale forte è vera, allora esiste un programma per il cinese tale che se un qualsiasi sistema computazionale esegue quel programma, il sistema arriva in tal modo a capire il cinese.
Searle considera l’emergere dell’intenzionalità un fenomeno [[Biologia|biologico]] legato alla costituzione del cervello umano e alle relazioni biologico-chimiche che lì si svolgono. Sostiene infatti un naturalismo biologico rispetto all’idea che l’intenzionalità e la coscienza siano proprietà emergenti dal cervello.<ref>{{Cita libro|autore=J.R.Searle|titolo=La riscoperta della mente|dataoriginale=1994|editore=Bollati Borghieri|città=Torino|p=110}}</ref>
# Potrei eseguire un programma per il cinese senza con questo arrivare a capire il cinese.
# Pertanto l'intelligenza artificiale forte è falsa.


Egli rivolge una critica al funzionalismo che pretende di poter astrarre l’intelligenza dal suo sostrato, poiché i suoi procedimenti mentali, basati sulla manipolazione di simboli secondo regole sintattiche, non richiederebbero di mantenere il ''[[software]]'' assieme all’''[[hardware]]''. Invece di affermare una posizione che richiama il [[Res cogitans e res extensa|dualismo cartesiano]] (indipendenza ontologica della sostanza pensante rispetto alla sostanza estesa), Searle mantiene un nesso imprescindibile tra mente e corpo, proponendo la soluzione del naturalismo biologico, cioè l’idea che le proprietà biologico-chimiche del cervello producano gli eventi mentali, il cui sviluppo rispecchia la nostra storia naturale ed evolutiva.<ref name=":7" />
La seconda premessa è sostenuta dall'esperimento mentale della Stanza cinese. La conclusione di questa argomentazione è che eseguire un programma non può generare comprensione. L'argomentazione più ampia include la tesi che l'esperimento mentale dimostra più in generale che non si può ottenere semantica (significato) dalla sintassi (manipolazione di simboli formali).


Si può notare che questa posizione rimane, almeno per quelli che hanno suggerito obiezioni alle proposte di Searle, nell’ambiguità fra il dualismo classico e la [[Teoria dell'identità|teoria dell’identità]]. In effetti, il dualismo si basa sulla distinzione di due elementi (corpo e mente), le cui interazioni però portano necessariamente ad uno stato di sostanziale indistinguibilità tra gli elementi coinvolti, che si auto-implicano in maniera tale da confondersi (teoria dell’identità). In questo senso la mente umana sarebbe, come sostenevano anche [[Philippe Dreyfus|Dreyfus]] ed [[Gerald Edelman|Edelman]], completamente identificata con il sostrato neurofisiologico del cervello.<ref>{{Cita libro|autore=John R. Searle|titolo=The Rediscovery of the Mind|url=https://archive.org/details/manteachingnotes0000schl|annooriginale=1992|editore=M.I.T. press|città=|capitolo=5}}</ref>
Il punto centrale dell'argomento di Searle è la distinzione tra [[sintassi]] e [[semantica]]. La stanza è in grado di combinare i caratteri secondo le regole, cioè si può dire che la stanza si comporta come se seguisse regole sintattiche. Ma, secondo Searle, essa non conosce il ''significato'' di ciò che ha fatto, cioè non ha contenuto semantico. I caratteri non rappresentano neppure ''simboli'' perché non sono interpretati in nessuna fase del processo.


Searle, tuttavia, non si identifica con la teoria dell’identità poiché si riferisce alla mente umana come ad una proprietà emergente, mantenendo, così, il distinguo. Allo stesso tempo rifiuta l’ipotesi funzionalistica, sostenendo che la particolarità della mente umana consista nella soggettività ontologica irriducibile a funzioni sintattiche.<ref>{{Cita pubblicazione|autore=Larry Hauser|anno=2006|titolo=Searle's chinese room|rivista=|volume=|numero=|url=https://www.iep.utm.edu/chineser/|pagina=8}}</ref>
==Argomentazioni formali==
Nel 1984 Searle fornì una versione più formale dell'argomentazione della quale la Stanza Cinese è una parte. Elencò quattro premesse:


Il risultato della discussione circa la possibilità per l’intelligenza artificiale di soppiantare quella umana è che, secondo Searle, non possiamo ridurre la proprietà principale dell’intelligenza umana, ovvero l’intenzionalità, ad un’esecuzione di compiti di calcolo tramite simboli seguendo le regole della sintassi. Il motivo è che queste intelligenze possono in apparenza produrre le stesse risposte grazie alle istruzioni, ma bisogna tenere presente che l’intelligenza artificiale, con la sua impostazione attuale, non permette di ''comprendere'' le suddette istruzioni, questo perché gli elementi che essa manipola non necessitano di essere compresi. Dunque, le macchine non effettuano gli stessi compiti in modo uguale e perciò l’intelligenza artificiale non equivale all’intelligenza umana.<ref name=":7" /><blockquote>“[…] nessun modello puramente formale sarà mai sufficiente in sé per l’intenzionalità, perché le proprietà formali non sono di per sé costitutive di intenzionalità, e non hanno di per sé poteri causali […].”<ref>{{Cita libro|autore=John R. Searle|titolo=Mente, cervello, intelligenza|annooriginale=1988|editore=Bompiani|p=64}}</ref>
:*Premessa 1: I cervelli causano le menti
:*Premessa 2: La sintassi non è sufficiente per la semantica
:*Premessa 3: I programmi per calcolatore sono interamente definiti dalla loro struttura formale e sintattica
:*Premessa 4: Le menti hanno contenuto semantico.


“A meno che non si creda che la mente è separabile dal cervello sia concettualmente che empiricamente – dualismo in una forma forte – non si può sperare di riprodurre il mentale scrivendo e mettendo in esecuzione programmi, dal momento che i programmi devono esser indipendenti dai cervelli […].”<ref>{{Cita libro|autore=John R. Searle|titolo=Mente, cervello, intelligenza|annooriginale=1988|editore=bompiani|p=70}}</ref> </blockquote>Alla domanda “''Le macchine possono pensare?''”, Searle risponde che esse possono effettivamente pensare solo se la loro configurazione materiale raggiunge un livello di complessità (equivalente a quello del cervello umano) tale da costituire un sostrato biologico-chimico e neurofisiologico che permetta di far emergere un’intelligenza dotata d’intenzionalità. Se la struttura di base (''[[hardware]]'') non corrisponde a queste esigenze, non si può dire che le macchine pensino. L’obiezione di John Searle è rivolta esclusivamente al [[intelligenza artificiale forte|programma “forte”]] dell’intelligenza artificiale e non esclude la prospettiva del [[Intelligenza artificiale debole|programma debole]]. Rimane quindi sempre aperta l’opportunità per le macchine di essere degli strumenti di calcolo molto più potenti e acuti degli esseri umani, almeno in certi ambiti.<ref name=":1" />
La seconda premessa sarebbe supportata dall'argomentazione della Stanza cinese, dato che Searle sostiene che la stanza segue solo regole sintattiche formali e non "comprende" il cinese. Searle ne deriva che queste premesse conducono direttamente a tre conclusioni:


== Descrizione dell'esperimento ==
:*Conclusione 1: Nessun programma per calcolatore è sufficiente di per sé stesso a dare una mente ad un sistema. Le esecuzioni di programmi non sono menti.
:*Conclusione 2: Il modo con il quale le funzioni del cervello causano le menti non può avvenire esclusivamente in virtù dell'esecuzione di un programma per calcolatore.
:*Conclusione 3: Qualsiasi altra cosa sia ciò che genera le menti, essa dovrebbe avere poteri causali almeno equivalenti a quelli del cervello.


=== Obiezione contro il programma forte dell'intelligenza artificiale ===
Searle descrive questa versione come "eccessivamente grezza". È stato considerevolmente dibattuto se questa argomentazione sia realmente valida. Queste discussioni si focalizzano sui vari modi nei quali le premesse possono essere analizzate. Si può interpretare la premessa 3 nel senso che i programmi per calcolatore hanno contenuto sintattico ma non semantico e così le premesse 2, 3 e 4 conducono validamente alla conclusione 1. Ciò porta a dibattere circa l'origine del contenuto semantico di un programma per calcolatore.
Per formulare la sua obiezione contro il funzionalismo applicato al programma forte dell’intelligenza artificiale, John Searle ricostruisce una situazione similare a quella del [[Test di Turing]], dove un essere umano, a sua insaputa, interagisce con una macchina.<ref name=":16" /> Il compito per l’umano è di giudicare, sulla base delle risposte alle domande che egli pone, se sta discutendo con un altro umano o con una macchina, attribuendogli l’intelligenza di un interlocutore. L’idea iniziale di Turing era di dimostrare che la macchina, avendo riprodotto lo stesso procedimento logico-razionale dell’uomo in una situazione di computazione, poteva dare gli stessi output e imbrogliare il giudice, che non riusciva a distinguerla da un essere umano. In altre parole, si trattava di individuare le caratteristiche dell’intelligenza umana in termini sia computazionali sia di esecuzione logica e sequenziale di un compito. In questo senso, l’intelligenza umana era identificata da parte di un programma centrale (''software'') che consentiva di trattare informazioni a partire da simboli e secondo le regole sintattiche universali, indipendentemente dal supporto informatico (''hardware'').


John Searle riprende questo schema, però si sostituisce alla macchina. Immaginiamo che egli si chiuda dentro la stanza e debba interagire con qualcuno all’esterno che non sappia niente su di lui. Supponiamo poi che la persona fuori parli il [[Lingua cinese|cinese]] come [[madrelingua]] e che Searle non abbia nessuna conoscenza del cinese. Immaginiamo ancora che siano disposte sul tavolo della stanza una serie di caratteri cinesi che Searle dovrà utilizzare per rispondere alla persona fuori. Dato che il cinese non attesta nessuna vicinanza linguistica e [[semiotica]] con l’inglese (madrelingua di Searle), egli non ha nessuna capacità di riconoscere qualcosa e di formulare una frase: ci sono solo simboli.<ref name=":0">{{Cita libro|autore=John R. Searle|traduttore=Graziella Tonfoni|titolo=Menti, cervelli e programmi|anno=1984|città=Milano|pp=48-49}}</ref>
==Critiche==
Esistono molte critiche all'argomentazione di Searle. La maggioranza di esse rientra nella 'risposta del sistema' o nella 'risposta del '[[robot]]'.


Immaginiamo allora che dentro la stanza ci sia un libro d’istruzioni con alcuni insiemi di caratteri cinesi, associati secondo delle regole scritte in inglese. Searle continua a non capire nulla del cinese, però ''comprende'' le informazioni in inglese, che gli indicano come rispondere a qualsiasi domanda ricevuta in cinese. Queste regole, che costituiscono ciò che Searle chiama il “''[[programma]]''”, gli rendono possibile mettere in relazione una serie di simboli formali con un'altra serie di simboli formali, cioè gli permettono di dare una risposta (''output'') a ogni domanda (''input'').<ref name=":0" />
===La risposta del sistema===
Sebbene l'individuo nella Stanza cinese non comprenda il cinese, forse lo capiscono la persona e la stanza considerati insieme come sistema. La persona sarebbe proprio come un singolo [[neurone]] del [[cervello]], e, come un singolo neurone da solo non può capire, ma può contribuire alla comprensione del sistema complessivo, così la persona non capisce, ma il sistema complessivo sì.


Ormai, Searle è capace di avere una conversazione con un madrelingua cinese e, seguendo il programma, è in grado di fornire dati personali, narrare una storia o porre una domanda. Più il programma si complica, più si aggiungono istruzioni complesse da seguire per dare risposte sempre più precise. Ne risulta che l’esattezza del programma e della buona esecuzione da parte di Searle gli consentono di essere considerato dalla persona all’esterno come un madrelingua cinese, che risponde e reagisce normalmente, senza imbrogli.<ref name=":0" />
La risposta di Searle è che qualcuno potrebbe teoricamente memorizzare il libro delle regole e che lavori all'aperto; ciò lo renderebbe capace di interagire come se capisse il cinese, ma ciononostante continuerebbe a seguire un insieme di regole, senza comprendere il significato dei simboli che sta utilizzando, infatti in questo caso non c'è nulla nel sistema che non sia anche nella persone e poiché la persona non capisce il cinese, non lo capisce neanche il sistema. Questo conduce all'interessante problema di una persona capace di conversare correntemente in cinese senza "sapere" il cinese, e secondo il controargomento tale persona capisce effettivamente il cinese anche se questi sosterrebbe il contrario. Un argomento simile è che la persona non sa il cinese, ma lo sa il sistema che comprende sia la persona che il libro delle regole.


Searle fa osservare che non ha mai dovuto interpretare i simboli cinesi per capire la domanda e dare la risposta giusta. In effetti si è comportato come se fosse un computer che deve calcolare una formula sulla base di un programma e di simboli formali. Dunque, non era necessario che lui ''comprendesse'' ciò che doveva fare, perché doveva solo seguire le istruzioni fornite.<ref name=":0" />
===La risposta del robot===
Supponiamo che, invece che in una stanza, il programma sia collocato in un robot che possa muoversi ed interagire con il suo ambiente. Allora capirà certamente ciò che sta facendo? La risposta di Searle è di supporre che, senza che l'individuo nella Stanza cinese ne sia a conoscenza, alcuni segnali in ingresso che sta ricevendo provengano direttamente da una telecamera montata su un robot, e alcuni dei segnali in uscita siano utilizzati per muovere le braccia e le gambe del robot. Ciononostante, la persona nella stanza sta sempre seguendo le regole e non sa che cosa significhino i simboli.


Il rapporto con la lingua cinese era di tipo ''[[Sintassi|sintattico]]'' (manipolazione corretta di simboli), mentre quello con la lingua inglese era di tipo ''[[Semantica|semantico]]'' (collegare il significato di un termine), il connubio tra i due gli consente di mettere in ordine i caratteri cinesi.<ref name=":5" />
Supponiamo che il programma corrispondente al libro delle regole simuli in estremo dettaglio l'interazione dei neuroni nel cervello di un parlante cinese. Allora si dovrà dire che il programma capisce sicuramente il cinese? Searle replica che tale simulazione non avrà riprodotto le caratteristiche importanti del cervello - i suoi stati causali ed intenzionali.


Dunque, secondo Searle, l’I.A. forte non è sufficiente per spiegare come si svolge il ruolo dell’intenzionalità nell’intelligenza umana, perciò il grado di comprensione di quest’ultima non può essere né paragonato né soppiantato dall’intelligenza artificiale, la quale non produce una comprensione così intesa. Il punto è che in ogni caso Searle non capisce ciò che fa durante l’esperimento. Da ciò consegue che l’intelligenza di cui un umano dispone non è riducibile ad una manipolazione di simboli, ma ha anche qualcosa a che fare con la semantica.<ref name=":5" />
Ma cosa accadrebbe se una simulazione del cervello fosse connessa al mondo in modo tale da possedere il potere causale di un vero cervello - forse collegata ad un robot del tipo descritto prima? Allora sarebbe certamente capace di pensare. Searle concorda che è teoricamente possibile creare un'intelligenza artificiale, ma puntualizza che tale macchina dovrebbe avere gli stessi poteri causali di un cervello. Essa sarebbe più di un semplice programma per calcolatore.


=== Argomentazione completa ===
===Critica dei coniugi Churchland ([[Paul Churchland|Paul]] e [[Patricia Churchland|Patricia]])===
La più recente presentazione dell’argomento della Stanza Cinese (1990) presenta una derivazione formale dai seguenti tre assiomi:<ref name=":1">{{Cita pubblicazione|autore=John R. Searle|data=gennaio 1990|titolo=Is the Brain's Mind a Computer Program?|rivista=Scientific American|volume=262|numero=1}}</ref>
Searle dà per scontato che i simboli formali non interpretati (come i simboli cinesi per l’uomo) non coincidono con i contenuti mentali.


* (A1) “I programmi sono formali ([[Sintassi|sintattici]])”.<ref name=":12" />
Per rispondere Searle ipotizza che i programmatori della stanza cinese sappiano il cinese e che abbiano costruito il sistema in modo da fargli elaborare informazioni in cinese (i simboli). Searle immagina che l'uomo nella stanza si stufi di mescolare soltanto questi simboli, che per lui sono privi di significato. Suppone dunque che l'uomo decida d’interpretare i simboli secondo le mosse di una partita a scacchi. Searle si chiede quale semantica esprime ora il sistema: quella del cinese, degli scacchi o entrambe? Si spinge oltre: suppone che un uomo dall'esterno decida che le manipolazioni dei simboli possano essere interpretate come previsioni dell'andamento della borsa. I simboli per l'uomo (formali) non hanno una semantica intrinseca, ma arbitrariamente assegnata <ref> [[Paul Churchland|Paul M. e Patricia Smith Churchland]], ''Può una macchina pensare?'', "Le scienze" n. 259, marzo 1990</ref>.


Un [[programma]] usa la sintassi per manipolare [[Simbolo|simboli]] e non presta attenzione alla loro [[semantica]]; conosce dove porre i simboli e come utilizzarli, ma non comprende per cosa stiano o cosa intendano. Per il programma i simboli sono solo oggetti come altri.<ref name=":12">{{Cita pubblicazione|autore=John R. Searle|data=gennaio 1990|titolo=Is the Brain's Mind a Computer Program?|rivista=Scientific American|volume=262|numero=1|pagina=27}}</ref>
===Il problema delle altre menti===
[[Il problema delle altre menti]] consiste nell’osservazione che non è possibile determinare se l’esperienza soggettiva degli altri è analoga alla nostra. L’argomento di Searle è una versione del problema delle altre menti applicata alle macchine. Possiamo capire se le altre persone hanno delle menti soltanto studiando il loro comportamento (ad esempio tramite il [[Test di Turing]]). Secondo i critici di Searle, il suo argomento richiede alla Stanza Cinese uno standard più alto di quello che si richiede alle persone.
<ref>[http://www.riflessioni.it/scienze/stanza-cinese.htm La stanza cinese - Riflessioni sulle Scienze di Alberto Viotto<!-- Titolo generato automaticamente -->]</ref>


* (A2) “Le menti hanno contenuti mentali (semantici)”.<ref name=":12" />
===Altre risposte===
Il linguaggio naturale non è semplicemente una serie di eventi di impulso-risposta, ma piuttosto un'[[interazione]]. Una persona che esca dalla Stanza cinese potrebbe essere capace di capire effettivamente il cinese se le domande poste si riferissero a lui. Per esempio, la risposta alla domanda scritta in cinese "Qual è il tuo colore preferito?" può essere data solo con riferimento alla persona a cui viene chiesta. Se la persona può rispondere, allora capisce il cinese; se non può, allora persino per un osservatore esterno quella persona non parla cinese.


A differenza dei simboli usati da un programma, i nostri pensieri hanno [[significato]]: rappresentano cose e noi conosciamo cosa essi rappresentano.<ref name=":12" />
Si può discutere se la semantica in un qualsiasi linguaggio naturale richieda una correlazione tra le parole ed oggetti del mondo reale. In una Stanza cinese, non può esistere una relazione tra le parole o i simboli ed il mondo reale perché non esiste niente a cui riferirsi all'interno della Stanza cinese se non alle regole che vi sono scritte.


* (A3) “La [[sintassi]] di per sé non è né condizione essenziale, né sufficiente per la determinazione della [[semantica]]”.<ref name=":12" />
==Note==


Quest’ultimo assioma è ciò che Searle, con l’esperimento delle Stanza cinese, intende provare: la stanza cinese ha [[sintassi]] (vi è un uomo all’interno che manipola simboli), ma non ha [[semantica]] (non c’è niente e nessuno nella stanza che comprende cosa i simboli cinesi vogliano dire). Da ciò si deduce che avere sintassi non è abbastanza per generare la semantica.<ref name=":12" />

Searle afferma che da questi tre assiomi si possa derivare la seguente conclusione:

* (C1) “I [[Programma|programmi]] non sono condizione essenziale né sufficiente perché sia data una mente”.<ref name=":12" />

I programmi hanno solo sintassi ed essa non è sufficiente per la semantica. Ogni mente, invece, ha semantica, per cui i programmi non sono assimilabili alle menti.<ref name=":12" />

Con questo argomento Searle intende mostrare che l’[[intelligenza artificiale]], costruendo programmi che manipolano simboli, non può mai produrre una macchina che abbia una mente.<ref name=":13" />

Da questo punto della derivazione in poi Searle, proponendo un quarto assioma, intende rispondere ad una questione differente: il cervello umano segue un programma? In altre parole, la teoria computazionale della mente è corretta?<ref name=":14">{{Cita pubblicazione|autore=John R. Searle|titolo=Is the Brain's Mind a Computer Program?|rivista=Scientific American|volume=262|numero=1|pagina=29}}</ref>

* (A4) “I cervelli causano le menti.”<ref name=":14" />

Secondo Searle possiamo derivare immediatamente che:

* (C2) "Qualsiasi altro [[sistema]] capace di produrre menti dovrebbe avere poteri causali equivalenti, per lo meno, a quelli del cervello".<ref name=":14" />

Da ciò segue che qualsiasi cervello artificiale non deve seguire meramente un programma, ma dovrebbe essere in grado di riprodurre i poteri causali dei cervelli.<ref name=":14" />

Da questo deriva le ulteriori conclusioni:

* (C3) "Ogni artefatto che producesse fenomeni mentali, ogni mente artificiale, dovrebbe essere in grado di duplicare lo specifico potere causale dei cervelli e non potrebbe fare ciò solo eseguendo un programma formale".<ref name=":13" />

* (C4) "II modo in cui i cervelli umani attualmente producono fenomeni mentali non può essere dato soltanto dall’esecuzione di un programma per computer".<ref name=":13">{{Cita pubblicazione|autore=Larry Hauser|titolo=Chinese room argument|rivista=|volume=|numero=|p=6}}</ref>

== Critica dei coniugi Churchland ==
Tra le risposte all’argomento di Searle troviamo anche quella mossa da Paul e [[Patricia Churchland]], che, però, a differenza delle altre, non è presente nell’articolo ''Menti cervelli e programmi''.<ref>{{Cita libro|autore=Paul M. Churchland and Patricia Smith Churchland|titolo=Could a.Machine Think?|dataoriginale=1990|p=|rivista=Scientific America}}</ref>

Per i coniugi Churchland le risposte date dal parlante inglese che manipola [[Simbolo|simboli]] cinesi sono sensate, ma non tanto perché la stanza capisca il cinese, infatti convengono con Searle sul fatto che essa non lo comprenda, quanto invece perché contengono un rifiuto del terzo degli assiomi alla base dell’argomento di Searle presentato nel 1990: “la sintassi non è condizione essenziale, né sufficiente per la determinazione della semantica”<ref name=":1" />.

Secondo i Churchland, Searle non può rafforzare tale [[assioma]] con l’argomento della Stanza Cinese dal momento che di esso non è provata la [[verità]]; il terzo assioma, inoltre, dà per scontato ciò che si vuole dimostrare e questo si palesa quando lo si confronta con la conclusione C1: “I programmi non sono condizione essenziale né sufficiente perché sia data una mente”.<ref name=":1" /> Tale conclusione è già espressa in gran parte da A3 per cui Searle con l’[[esperimento]] concettuale cerca di dare valore all’assioma A3. Per i Churchland Searle con l’esperimento della Stanza Cinese non riesce a fornire all’assioma 3 una base solida e pertanto costoro forniscono un argomento simile che possa fungere da [[controesempio]]. L’argomento, noto con il nome di ''La stanza luminosa'' si articola sui tre seguenti assiomi e sulla derivante conclusione<ref name=":15">{{Cita pubblicazione|autore=Paul M. Churchland and Patricia Smith Churchland|data=1990|titolo=Could a.Machine Think?|rivista=Scientific America|volume=|numero=|pagina=32}}</ref>:

A1: “L'elettricità e il [[magnetismo]] sono forze”.<ref name=":15" />

A2: “La proprietà essenziale della [[luce]] è la [[luminosità (percezione)|luminosità]]”.<ref name=":15" />

A3. “Le [[Forza|forze]], da sole, non sono essenziali, né sufficienti per dare la luminosità”.<ref name=":15" />

C1: “L'elettricità e il magnetismo non sono essenziali né sufficienti per dare la luce”.<ref name=":15" />

Se supponessimo che tale argomento fosse stato elaborato dopo l’ipotesi di [[James Clerk Maxwell|Maxwell]] circa la natura elettromagnetica della luce, prima però che ne fosse riconosciuta la validità, esso sarebbe potuto essere un’obiezione a tale ipotesi, soprattutto se A3 fosse stato rafforzato da un esperimento concettuale. I Churchland, a tal proposito, chiedono di immaginare che all’interno di una stanza buia vi sia un uomo che tiene in mano un oggetto elettricamente carico, ad esempio, un [[magnete]]. Stando alla teoria di Maxwell, l’uomo facendo compiere al magnete movimenti verticali (su e giù) creerebbe un cerchio di [[onde elettromagnetiche]] sempre più ampio che farebbe diventare luminoso il magnete. Tuttavia, provando a fare tale esperimento si nota come il movimento di un qualsiasi oggetto carico non produca luminosità.<ref name=":8">{{Cita pubblicazione|autore=Paul M. Churchland and Patricia Smith Churchland|data=marzo 1990|titolo=Può una macchina pensare?|rivista=Le scienze|volume=|numero=259}}</ref>

Maxwell per riuscire a controbattere a tale evidenza può soltanto insistere sui tre assiomi, sostenendo, in primis, che A3 sia falso: è plausibilmente possibile, ma dà per scontato ciò che di fatto non è verificabile. Secondariamente l’esperimento non dice nulla di importante sulla natura della luce e, infine, sostiene che soltanto un programma di ricerca sistematico, che permetta di dimostrare il parallelismo tra proprietà della luce e onde elettromagnetiche, possa risolvere il problema della luce.<ref name=":8" />

Traslando tale risultato all’esperimento di Searle, risulta evidente che anche se apparentemente alla Stanza Cinese non si può attribuire semantica, non vi è, però, nessuna giustificazione alla pretesa, fondata su quest'apparenza, che la manipolazione di simboli cinesi, secondo determinate regole, non potrà mai dar luogo a fenomeni semantici.<ref>{{Cita pubblicazione|autore=Paul M. Churchland and Patricia Smith Churchland|data=1990|titolo=Could a machine think?|rivista=Scientific American|volume=|numero=|p=34}}</ref>

== Repliche all'argomentazione di Searle ==

=== La risposta del sistema ===
La prima importante obiezione rivolta all’esperimento noto come “Stanza cinese” è conosciuta come replica (o risposta) del [[sistema]]. Essa sostiene che:<ref name=":9">{{Cita pubblicazione|autore=Larry Hauser|titolo=Chinese room argument|rivista=|volume=|numero=|pagina=3}}</ref>

“Mentre è vero che l’individuo chiuso nella stanza non capisce la storia, sta di fatto che egli è semplicemente parte di un intero sistema, e il sistema effettivamente comprende la storia […] la comprensione non viene ascritta all’individuo isolato, bensì al sistema complessivo di cui egli è parte”<ref name=":2">{{Cita libro|autore=John R. Searle|traduttore=Graziella Tonfoni|titolo=Menti, cervelli e programmi|anno=1984|città=Milano|pp=53-57}}</ref>

La persona all’interno della stanza è di [[madrelingua]] inglese e non conosce minimamente il [[Lingua cinese|cinese]]. A questa, però, vengono consegnati alcuni strumenti (un registro di regole relative ai simboli cinesi, carta e penna) grazie ai quali si può parlare di un sistema. Quest’ultimo viene in qualche modo incorporato da parte dell’individuo e come dice Searle:<ref name=":9" />

“non c’è nulla del sistema che non sia in lui. Se lui non capisce, non c’è alcun modo per cui il sistema possa capire, poiché esso è proprio una sua parte”<ref name=":2" />

In breve, la replica dei sistemi consiste nel fatto che, sebbene l’individuo nella stanza non comprenda il cinese, può risultare possibile la comprensione di questa lingua grazie al sistema complessivo: grazie cioè alla persona, agli strumenti di cui fa uso e alla stanza, considerati come insieme. Non essendoci un individuo che sappia parlare la lingua cinese all’interno della stanza, la stanza nel suo insieme non dovrebbe comprendere la lingua. La risposta del sistema evade però la questione, ribadendo più e più volte che il sistema deve capire il cinese<ref name=":2" />

Searle risponde a questa obiezione proponendo una particolare situazione: chiede cioè cosa succederebbe se la persona che si trova all’interno della stanza memorizzasse le regole e i vari meccanismi, tenendo conto di tutte le informazioni presenti nella sua mente. Ciò la renderebbe capace di interagire come se capisse effettivamente il cinese; ciononostante continuerebbe a seguire un insieme di regole, senza comprendere il significato dei simboli che sta utilizzando.<ref name=":3">{{Cita pubblicazione|autore=Larry Hauser|anno=2001|titolo=Chinese room argument|rivista=|volume=|numero=|p=3}}</ref>

=== La risposta del robot ===
La seconda obiezione all’argomento della Stanza Cinese è nota come “Replica del [[Robot]]”<ref name=":10">{{Cita libro|autore=John R. Searle,|traduttore=Graziella Tonfoni|titolo=Menti, cervelli e programmi|anno=1984|pp=57-58}}</ref>.

Questa impostazione ci chiede di pensare ad un programma del tutto nuovo. Ci viene infatti proposto di supporre di mettere un [[computer]] dentro un robot, le cui caratteristiche sono molteplici. Esso infatti non solo riceve simboli formali come [[Input/output|input]] ed immette simboli formali come [[Input/output|output]], ma rende possibile il funzionamento del robot in maniera tale da rendere le sue azioni simili a quelle di un comportamento umano. L’idea è che il robot venga controllato da un [[cervello]] computerizzato che consente al robot stesso di poter vedere tramite una [[telecamera]] inglobata e di riuscire a muoversi grazie alla presenza di braccia e gambe che gli consentirebbero di agire.<ref name=":10" />In questo modo, si avrebbe un robot in grado di comprendere effettivamente e soprattutto avrebbe altri stati mentali. Implicitamente la risposta del robot rivendicherebbe il fatto che l’attività nota come capacità cognitiva non comprenda una mera manipolazione di simboli formali, ma che vi sia un complesso di rapporti causali (oltre che intenzionali) con il mondo esterno. Quest’impostazione andrebbe in qualche modo a riprendere l’approccio dei [[Processo cognitivo|processi cognitivi]] incorporati, il quale sottolinea il fatto che i cosiddetti “processi cognitivi” trovano una loro realizzazione all’interno di un corpo, il quale è inserito in un ambiente.<ref name=":3" />

Searle replica che tale [[simulazione]] non riprodurrebbe le caratteristiche più importanti del cervello – i suoi stati [[Causa (filosofia)|causali]] ed [[Intenzionalità|intenzionali]]. Tutto quel che farebbe il robot, starebbe nel riuscire a seguire istruzioni formali per manipolare simboli formali. Non capirebbe nulla tranne le regole per la manipolazione di questi simboli. In breve, non saprebbe cosa succede attorno a sé, né il motivo per il quale si comporta in un determinato modo. Stando alla concezione di [[John Searle|Searle]] perderebbe poco a poco la facoltà di una vera e propria comprensione.<ref name=":10" />

=== La replica del simulatore del cervello ===
La replica del [[Simulazione|simulatore]] del cervello chiede di immaginare che il programma costituito dal computer (o dalla persona nella stanza) simuli la sequenza di accensioni neuronali e di sinapsi nel cervello di un parlante cinese quando capisce storie in cinese e risponde ad esse. Stando a tale dato la macchina, simulando la struttura formale del cervello cinese nel capire tali storie e nel dare loro una risposta, le comprende. Se negassimo ciò dovremmo altresì negare che i parlanti cinesi le abbiano capite, dal momento che a livello di sinapsi non ci sono differenze tra il programma del computer e il programma del cervello cinese.<ref name=":4">{{Cita libro|autore=John R. Searle|traduttore=Graziella Tonfoni,|titolo=Menti, cervelli e programmi|anno=1984|pp=58-60}}</ref>

Searle ribatte a tale obiezione proponendo un esempio: supponiamo che, invece dell’uomo che manipola simboli cinesi pur non conoscendo il cinese, siamo in presenza di un uomo che opera un elaborato complesso di tubature per l’acqua congiunto da valvole. Quando l’uomo riceve certi simboli cinesi come input, consultando il programma in inglese, agisce aprendo o chiudendo le valvole indicate.<ref name=":4" />Ogni connessione dei tubi per l’acqua corrisponde a una sinapsi nel cervello cinese, e l’intero sistema è collegato così che dopo aver attivato tutti i giusti [[Rubinetto|rubinetti]], le risposte in cinese innescano gli output. Searle ritiene che l’uomo abbia agito come mero esecutore di indicazioni rappresentate dai simboli e che, tuttavia, alla fine del suo operare egli non comprenda né il cinese né il funzionamento del complesso di condutture per l’acqua. Il problema con il simulatore del cervello è che esso simula soltanto la struttura formale della [[Sequenza principale|sequenza]] di accensioni neurali e non ciò che è importante, ovvero la capacità del cervello di produrre stati intenzionali; Searle adopera tale esempio per mettere in luce l’insufficienza delle proprietà formali rispetto a quelle causali.<ref name=":4" />

=== La replica della combinazione ===
La replica della combinazione è costituita dall’insieme delle tre precedenti repliche (sistema-robot-simulatore del cervello), così da essere più efficace. In questa replica viene portato come esempio un [[robot]], con un computer all’interno del “[[cranio]]”, che simula tutte le [[sinapsi]] di un cervello umano e il cui comportamento risulta essere simile a quello di un uomo; viene, inoltre, chiarito che bisogna pensare a tale robot come a un sistema unificato e non a un semplice [[calcolatore]] con input e output. Da tale replica consegue che sia necessario attribuire intenzionalità al sistema.<ref>{{Cita libro|autore=John R. Searle|traduttore=Graziella Tonfoni|titolo=Menti, cervelli e programmi|anno=1984|città=Milano|pp=60-62}}</ref>

Secondo Searle inizialmente siamo portati a conferire intenzionalità al robot e ciò principalmente perché esso mette in atto un comportamento vicino al nostro, ma dimostrando come, in realtà, per funzionare il computer esegua un programma formale si riesce a confutare l’ipotesi di attribuzione ad esso di stati mentali. A dimostrazione di tale asserzione Searle propone di supporre che all’interno del robot vi sia un uomo che manipoli, conformemente a determinate regole, una serie di simboli formali non interpretati ricevuti dai [[Sensore|sensori]] del robot e che mandi, come output, ai meccanismi motori i corrispondenti simboli formali non interpretati. Se supponiamo che l’uomo lì dentro sappia solo quali operazioni eseguire e quali simboli senza significato usare, allora l’ipotesi che il robot abbia intenzionalità non sarebbe giustificata. Veniamo, dunque, a conoscenza che il comportamento di tale robot è il risultato di un programma formale e quindi dobbiamo abbandonare l’assunto dell’intenzionalità.<ref>{{Cita pubblicazione|autore=Larry Hauser|anno=2001|titolo=Chinese room argument|rivista=|volume=|numero=|p=4}}</ref>

=== La replica delle altre menti ===
La replica delle altre menti rimanda al fatto che per sapere se le persone hanno compreso il [[Lingua cinese|cinese]] o qualunque altra cosa si deve far riferimento al loro comportamento: se il computer supera i [[test]] comportamentali, come li supererebbe una persona, allora se si attribuisce [[cognizione]] a tale persona, di principio bisogna attribuirla anche al computer.<ref name=":11">{{Cita libro|autore=John R. Searle,|traduttore=Graziella Tonfoni,|titolo=Menti, cervelli e programmi,|dataoriginale=1984|città=Milano|pp=62-63}}</ref>

[[John Searle|Searle]] ribatte dicendo che tale replica non centra il punto della questione: “non è come io so che le altre persone hanno stati cognitivi, ma piuttosto che cosa è che io attribuisco loro quando li accredito di stati cognitivi”<ref>{{Cita libro|autore=John R. Searle|traduttore=Graziella Tonfoni|titolo=Menti, cervelli e programmi|annooriginale=1984|città=Milano|p=63}}</ref>. Non si possono valutare soltanto processi computazionali con [[Input/output|input e output]] corretti perché questi possono esistere anche senza che vi sia lo stato cognitivo.<ref name=":11" />

=== La replica delle molte sedi ===
Secondo la replica delle molte sedi prima o poi sarà possibile costruire dispositivi che abbiano i procedimenti causali che, secondo Searle, sono necessari per [[Intenzionalità|l’intenzionalità]] e ciò si chiamerà Intelligenza Artificiale.<ref>{{Cita pubblicazione|autore=Larry Huser|anno=2001|titolo=Chinese room argument|rivista=|volume=|numero=|p=5}}</ref>

Searle sostiene che questa replica travisi il progetto dell’[[Intelligenza artificiale|Intelligenza Artificiale]] forte ridefinendola come qualsiasi cosa che artificialmente produce e spieghi la cognizione, abbandonando, quindi, l’affermazione originale fatta per conto dell’intelligenza artificiale secondo cui “i procedimenti mentali sono procedimenti computazionali che operano su elementi formalmente definiti”. Searle, quindi, si rifiuta di rispondere a tale obiezione dal momento che non rispecchia una ben definita [[premessa]] su cui si è basata la sua intera argomentazione.<ref>{{Cita libro|autore=John R. Searle|traduttore=Graziella Tonfoni|titolo=Menti, cervelli e programmi|dataoriginale=1984|città=Milano|pp=63-64}}</ref>

== Note ==
<references/>
<references/>

== Bibliografia ==

* {{Cita libro|autore=John R. Searle|autore2=Graziella Tonfoni|titolo=Menti, cervelli e programmi: un dibattito sull'intelligenza artificiale|data=1984|città=Milano|ISBN=8870056147}}
*{{Cita libro|autore=John R. Searle|titolo=La mente è un programma?|annooriginale=1990|rivista=Le scienze|numero=259}}
*{{Cita libro|autore=John R. Searle|titolo=Mente, cervello, intelligenza|dataoriginale=1988|editore=Bompiani}}
*{{Cita pubblicazione|autore=John R. Searle|data=gennaio 1990|titolo=Is the Brain's Mind a Computer Program?|rivista=Scientific American|volume=262|numero=1}}

* {{Cita pubblicazione|autore=Larry Hauser|data=12 aprile 2001|titolo=Chinese room argument|rivista=|volume=|numero=}}
* {{Cita pubblicazione|autore=David Anderson|coautori=Jack Copeland|data=Febbraio 2002|titolo=Artificial life and the chinese room argument|rivista=|volume=|numero=}}
* {{Cita pubblicazione|autore=Mariano de Dompablo Cordio|data=2008|titolo=Searle's Chinese Room Argument and its Replies: A Constructive Re-Warming and the Future of Artificial Intelligence|rivista=Indiana Undergraduate Journal of Cognitive Science|volume=|numero=}}
* {{Cita pubblicazione|autore=Michele Braccini|titolo=Intelligenza artificiale: test di Turing e alcune questioni filosofiche|rivista=|volume=|numero=}}
*{{Cita pubblicazione|autore=Paul M. Churchland and Patricia Smith Churchland|data=marzo 1990|titolo=Può una macchina pensare?|rivista=Le scienze|volume=|numero=259}}
* {{Cita web|url=https://plato.stanford.edu/entries/chinese-room/|titolo=Stanford Encyclopedia of Philosophy|accesso=20 gennaio 2020}}

== Altri progetti ==
{{Interprogetto|preposizione=sulla}}


== Collegamenti esterni ==
== Collegamenti esterni ==
* {{Collegamenti esterni}}
* {{en}} John Searle (1980) "Minds, Brains and Programs" [http://www.bbsonline.org/Preprints/OldArchive/bbs.searle2.html original draft] from [http://www.bbsonline.org/ ''Behavioral and Brain Sciences'']
* {{en}} John Searle (1980) "Minds, Brains and Programs" [https://web.archive.org/web/20010221025515/http://www.bbsonline.org/Preprints/OldArchive/bbs.searle2.html original draft] from [https://web.archive.org/web/20051221163333/http://www.bbsonline.org/ ''Behavioral and Brain Sciences'']
* {{en}} John Searle (1984) "Minds, Brains & Science: The 1984 Reith Lectures" British Broadcasting Corporation
* {{en}} John Searle (1984) "Minds, Brains & Science: The 1984 Reith Lectures" British Broadcasting Corporation
* {{en}} [[Stevan Harnad]] (2001) [http://cogprints.org/4023/ What's Wrong and Right About Searle's Chinese Room Argument] in Bishop, M. and Preston, J., Eds. Essays on Searle's Chinese Room Argument. Oxford University Press.
* {{en}} [[Stevan Harnad]] (2001) [http://cogprints.org/4023/ What's Wrong and Right About Searle's Chinese Room Argument] in Bishop, M. and Preston, J., Eds. Essays on Searle's Chinese Room Argument. Oxford University Press.
* {{en}} [http://members.aol.com/wutsamada/disserta.html Dissertation by Larry Stephen Hauser],
* {{en}} [https://web.archive.org/web/20060206060205/http://members.aol.com/wutsamada/disserta.html Dissertation by Larry Stephen Hauser],
* {{en}} Searle's Chinese Box: Debunking the Chinese Room Argument. Larry Hauser. disponibile a http://members.aol.com/lshauser2/chinabox.html
* {{en}} Searle's Chinese Box: Debunking the Chinese Room Argument. Larry Hauser. disponibile a https://web.archive.org/web/20060217045449/http://members.aol.com/lshauser2/chinabox.html
* {{en}} [http://plato.stanford.edu/entries/chinese-room/ The Chinese Room Argument]
* {{cita web|http://plato.stanford.edu/entries/chinese-room/|The Chinese Room Argument|lingua=en}}
* {{en}} [http://samvak.tripod.com/chinese.html Philosophical and analytic considerations in the Chinese Room thought experiment]
* {{cita web|http://samvak.tripod.com/chinese.html|Philosophical and analytic considerations in the Chinese Room thought experiment|lingua=en}}
* {{en}} [http://globetrotter.berkeley.edu/people/Searle/searle-con0.html Interview in which Searle discusses the Chinese Room]
* {{cita web|1=http://globetrotter.berkeley.edu/people/Searle/searle-con0.html|2=Interview in which Searle discusses the Chinese Room|lingua=en|accesso=4 marzo 2006|dataarchivio=13 giugno 2010|urlarchivio=https://web.archive.org/web/20100613070337/http://globetrotter.berkeley.edu/people/Searle/searle-con0.html|urlmorto=sì}}
{{Controllo di autorità}}
{{Portale|neuroscienze}}
{{Portale|informatica|neuroscienze}}


[[Categoria:Filosofia della mente]]
[[Categoria:Filosofia della mente]]
[[Categoria:Scienze cognitive]]

[[be-x-old:Кітайскі пакой]]
[[ca:Habitació xinesa]]
[[cs:Argument čínského pokoje]]
[[da:Det kinesiske rum]]
[[de:Chinesisches Zimmer]]
[[en:Chinese room]]
[[es:Habitación china]]
[[fa:اتاق چینی]]
[[fi:Kiinalaisen huoneen argumentti]]
[[fr:Chambre chinoise]]
[[gl:Sala chinesa]]
[[he:החדר הסיני]]
[[ja:中国語の部屋]]
[[ko:중국어 방]]
[[lt:Kinų kambarys]]
[[nl:Chinese kamer]]
[[pl:Chiński pokój]]
[[pt:Quarto chinês]]
[[ru:Китайская комната]]
[[sv:Det kinesiska rummet]]
[[uk:Китайська кімната]]
[[zh:中文房间]]

Versione attuale delle 19:38, 16 feb 2024

La stanza cinese è un esperimento mentale ideato da John Searle come controesempio rispetto alla teoria dell'intelligenza artificiale forte. Alla base del ragionamento di Searle vi è l'idea che la sintassi non sia condizione sufficiente per la determinazione della semantica.[1]

Searle presentò l'argomentazione della stanza cinese nell'articolo Minds, Brains and Programs (Menti, cervelli e programmi), pubblicato nel 1980 dalla rivista scientifica The Behavioral and Brain Sciences (in lingua italiana da Le Scienze[2]). Da allora tale argomentazione è stata un pilastro del dibattito intorno al tema dell'intelligenza artificiale forte.[3]

John Searle

Esperimento mentale: "Le macchine possono pensare?"

[modifica | modifica wikitesto]

Intelligenza artificiale forte e debole

[modifica | modifica wikitesto]

Nel 1980 John Searle pubblicò Minds, Brains and Programs nella rivista The Behavioral and Brain Sciences.[4]In questo articolo Searle espose la sua argomentazione e di seguito rispose alle principali obiezioni che vennero sollevate durante le sue presentazioni a diversi campus universitari. L'articolo di Searle, inoltre, fu pubblicato nella rivista insieme ai commenti ed alle critiche di 27 ricercatori di scienze cognitive. Questi 27 commenti furono seguiti dalle risposte di Searle ai suoi critici. Negli ultimi due decenni del ventesimo secolo, l'argomentazione della Stanza cinese fu oggetto di moltissime discussioni.[3]

Nel 1984, Searle presentò l'argomentazione della Stanza cinese nel libro Minds, Brains and Science e nel gennaio del 1990, il popolare periodico Scientific American portò il dibattito all'attenzione del mondo scientifico. Searle, allora, incluse l'argomentazione della Stanza cinese nell'articolo "Is the Brain's Mind a Computer Program?" a cui seguì un articolo di risposta, "Could a Machine Think?", scritto da Paul e Patricia Churchland. Poco tempo dopo, fu pubblicato un confronto sulla Stanza cinese tra Searle ed un altro eminente filosofo, Jerry Fodor (in Rosenthal (ed.) 1991).[3]

Nel testo Minds, brains and programs il filosofo John Searle riprende la domanda di Alan Turing circa la possibilità delle macchine di pensare, opponendosi alla tesi secondo cui l’intelligenza umana possa essere riprodotta all’interno di una macchina, che segue un programma preimpostato. In altri termini la tesi sostenuta da Turing e quindi dall’intelligenza artificiale forte, intravede la possibilità per un computer di ottenere gli stessi esiti di una mente umana, cioè la possibilità di pensare, di avere stati cognitivi, di capire discorsi e domande per rispondere. L’impostazione di un programma consente alla macchina di elaborare gli input ricevuti per emettere, conseguentemente, un output. Il programma è costituito da simboli e regole di calcolo che consentono alla macchina di eseguire un procedimento determinato di manipolazione di simboli con i quali essa compone risposte.[5]

L’idea principale del programma dell’I.A. forte è quella che individua una corrispondenza di struttura e di funzionamento tra la mente umana e un computer. Viene in effetti stabilito il fatto che la mente, ricevendo dati (input), modificandoli e dandone altri (output), funzioni per mezzo di simboli elaborati da un’unità centrale di esecuzione che indica le procedure da compiersi.[4]

Due teorie a sostegno del programma dell’intelligenza artificiale forte sono il funzionalismo ed il computazionalismo.

  • La prima sostiene che uno stato mentale sia qualsiasi condizione causale interposta tra input e output, dunque, secondo tale teoria due sistemi con uguali processi causali hanno gli stessi stati mentali.
  • Secondo il computazionalismo i processi mentali consistono in processi di calcolo che operano su simboli e tali processi sono equivalenti a quelli effettuati da un computer.[6]

Contro questo programma Searle formula un’obiezione secondo cui la mente umana non può essere riprodotta solamente in termini sintattici, poiché così non si tiene conto della sua qualità principale, ovvero l’intenzionalità, che rimanda alla semantica. L’intenzionalità è la componente principale della mente umana ed è strettamente legata all’evento di coscienza. Evento di coscienza e intenzionalità sono considerate proprietà primitive e riguardano la capacità di un essere umano di formulare i propri obiettivi e di provare emozioni. Ogni azione, quindi, e ogni stato cognitivo richiedono, nella loro causalità, un trattamento diverso da quello sintattico, in quanto essi operano non solo sintatticamente, ma anche semanticamente, in relazione al significato dei termini.[3]

Searle, quindi, sostiene che l’intelligenza artificiale non possa essere equivalente a quella umana perché non è sufficiente elaborare programmi di manipolazione di simboli secondo regole sintattiche per generare un’attività mentale. Il fatto è che la mente umana comprende, elabora e si esprime attraverso un linguaggio le cui parole, da un lato sono investite di significato, e dall’altro determinano il modo in cui una risposta verrà data. Searle ribadisce come l’intenzionalità, intrecciata all’esperienza soggettiva, è molto più complessa della prestazione della macchina.[3]

Intelligenza umana e artificiale a confronto

[modifica | modifica wikitesto]

Searle considera l’emergere dell’intenzionalità un fenomeno biologico legato alla costituzione del cervello umano e alle relazioni biologico-chimiche che lì si svolgono. Sostiene infatti un naturalismo biologico rispetto all’idea che l’intenzionalità e la coscienza siano proprietà emergenti dal cervello.[7]

Egli rivolge una critica al funzionalismo che pretende di poter astrarre l’intelligenza dal suo sostrato, poiché i suoi procedimenti mentali, basati sulla manipolazione di simboli secondo regole sintattiche, non richiederebbero di mantenere il software assieme all’hardware. Invece di affermare una posizione che richiama il dualismo cartesiano (indipendenza ontologica della sostanza pensante rispetto alla sostanza estesa), Searle mantiene un nesso imprescindibile tra mente e corpo, proponendo la soluzione del naturalismo biologico, cioè l’idea che le proprietà biologico-chimiche del cervello producano gli eventi mentali, il cui sviluppo rispecchia la nostra storia naturale ed evolutiva.[6]

Si può notare che questa posizione rimane, almeno per quelli che hanno suggerito obiezioni alle proposte di Searle, nell’ambiguità fra il dualismo classico e la teoria dell’identità. In effetti, il dualismo si basa sulla distinzione di due elementi (corpo e mente), le cui interazioni però portano necessariamente ad uno stato di sostanziale indistinguibilità tra gli elementi coinvolti, che si auto-implicano in maniera tale da confondersi (teoria dell’identità). In questo senso la mente umana sarebbe, come sostenevano anche Dreyfus ed Edelman, completamente identificata con il sostrato neurofisiologico del cervello.[8]

Searle, tuttavia, non si identifica con la teoria dell’identità poiché si riferisce alla mente umana come ad una proprietà emergente, mantenendo, così, il distinguo. Allo stesso tempo rifiuta l’ipotesi funzionalistica, sostenendo che la particolarità della mente umana consista nella soggettività ontologica irriducibile a funzioni sintattiche.[9]

Il risultato della discussione circa la possibilità per l’intelligenza artificiale di soppiantare quella umana è che, secondo Searle, non possiamo ridurre la proprietà principale dell’intelligenza umana, ovvero l’intenzionalità, ad un’esecuzione di compiti di calcolo tramite simboli seguendo le regole della sintassi. Il motivo è che queste intelligenze possono in apparenza produrre le stesse risposte grazie alle istruzioni, ma bisogna tenere presente che l’intelligenza artificiale, con la sua impostazione attuale, non permette di comprendere le suddette istruzioni, questo perché gli elementi che essa manipola non necessitano di essere compresi. Dunque, le macchine non effettuano gli stessi compiti in modo uguale e perciò l’intelligenza artificiale non equivale all’intelligenza umana.[6]

“[…] nessun modello puramente formale sarà mai sufficiente in sé per l’intenzionalità, perché le proprietà formali non sono di per sé costitutive di intenzionalità, e non hanno di per sé poteri causali […].”[10] “A meno che non si creda che la mente è separabile dal cervello sia concettualmente che empiricamente – dualismo in una forma forte – non si può sperare di riprodurre il mentale scrivendo e mettendo in esecuzione programmi, dal momento che i programmi devono esser indipendenti dai cervelli […].”[11]

Alla domanda “Le macchine possono pensare?”, Searle risponde che esse possono effettivamente pensare solo se la loro configurazione materiale raggiunge un livello di complessità (equivalente a quello del cervello umano) tale da costituire un sostrato biologico-chimico e neurofisiologico che permetta di far emergere un’intelligenza dotata d’intenzionalità. Se la struttura di base (hardware) non corrisponde a queste esigenze, non si può dire che le macchine pensino. L’obiezione di John Searle è rivolta esclusivamente al programma “forte” dell’intelligenza artificiale e non esclude la prospettiva del programma debole. Rimane quindi sempre aperta l’opportunità per le macchine di essere degli strumenti di calcolo molto più potenti e acuti degli esseri umani, almeno in certi ambiti.[1]

Descrizione dell'esperimento

[modifica | modifica wikitesto]

Obiezione contro il programma forte dell'intelligenza artificiale

[modifica | modifica wikitesto]

Per formulare la sua obiezione contro il funzionalismo applicato al programma forte dell’intelligenza artificiale, John Searle ricostruisce una situazione similare a quella del Test di Turing, dove un essere umano, a sua insaputa, interagisce con una macchina.[5] Il compito per l’umano è di giudicare, sulla base delle risposte alle domande che egli pone, se sta discutendo con un altro umano o con una macchina, attribuendogli l’intelligenza di un interlocutore. L’idea iniziale di Turing era di dimostrare che la macchina, avendo riprodotto lo stesso procedimento logico-razionale dell’uomo in una situazione di computazione, poteva dare gli stessi output e imbrogliare il giudice, che non riusciva a distinguerla da un essere umano. In altre parole, si trattava di individuare le caratteristiche dell’intelligenza umana in termini sia computazionali sia di esecuzione logica e sequenziale di un compito. In questo senso, l’intelligenza umana era identificata da parte di un programma centrale (software) che consentiva di trattare informazioni a partire da simboli e secondo le regole sintattiche universali, indipendentemente dal supporto informatico (hardware).

John Searle riprende questo schema, però si sostituisce alla macchina. Immaginiamo che egli si chiuda dentro la stanza e debba interagire con qualcuno all’esterno che non sappia niente su di lui. Supponiamo poi che la persona fuori parli il cinese come madrelingua e che Searle non abbia nessuna conoscenza del cinese. Immaginiamo ancora che siano disposte sul tavolo della stanza una serie di caratteri cinesi che Searle dovrà utilizzare per rispondere alla persona fuori. Dato che il cinese non attesta nessuna vicinanza linguistica e semiotica con l’inglese (madrelingua di Searle), egli non ha nessuna capacità di riconoscere qualcosa e di formulare una frase: ci sono solo simboli.[12]

Immaginiamo allora che dentro la stanza ci sia un libro d’istruzioni con alcuni insiemi di caratteri cinesi, associati secondo delle regole scritte in inglese. Searle continua a non capire nulla del cinese, però comprende le informazioni in inglese, che gli indicano come rispondere a qualsiasi domanda ricevuta in cinese. Queste regole, che costituiscono ciò che Searle chiama il “programma”, gli rendono possibile mettere in relazione una serie di simboli formali con un'altra serie di simboli formali, cioè gli permettono di dare una risposta (output) a ogni domanda (input).[12]

Ormai, Searle è capace di avere una conversazione con un madrelingua cinese e, seguendo il programma, è in grado di fornire dati personali, narrare una storia o porre una domanda. Più il programma si complica, più si aggiungono istruzioni complesse da seguire per dare risposte sempre più precise. Ne risulta che l’esattezza del programma e della buona esecuzione da parte di Searle gli consentono di essere considerato dalla persona all’esterno come un madrelingua cinese, che risponde e reagisce normalmente, senza imbrogli.[12]

Searle fa osservare che non ha mai dovuto interpretare i simboli cinesi per capire la domanda e dare la risposta giusta. In effetti si è comportato come se fosse un computer che deve calcolare una formula sulla base di un programma e di simboli formali. Dunque, non era necessario che lui comprendesse ciò che doveva fare, perché doveva solo seguire le istruzioni fornite.[12]

Il rapporto con la lingua cinese era di tipo sintattico (manipolazione corretta di simboli), mentre quello con la lingua inglese era di tipo semantico (collegare il significato di un termine), il connubio tra i due gli consente di mettere in ordine i caratteri cinesi.[4]

Dunque, secondo Searle, l’I.A. forte non è sufficiente per spiegare come si svolge il ruolo dell’intenzionalità nell’intelligenza umana, perciò il grado di comprensione di quest’ultima non può essere né paragonato né soppiantato dall’intelligenza artificiale, la quale non produce una comprensione così intesa. Il punto è che in ogni caso Searle non capisce ciò che fa durante l’esperimento. Da ciò consegue che l’intelligenza di cui un umano dispone non è riducibile ad una manipolazione di simboli, ma ha anche qualcosa a che fare con la semantica.[4]

Argomentazione completa

[modifica | modifica wikitesto]

La più recente presentazione dell’argomento della Stanza Cinese (1990) presenta una derivazione formale dai seguenti tre assiomi:[1]

Un programma usa la sintassi per manipolare simboli e non presta attenzione alla loro semantica; conosce dove porre i simboli e come utilizzarli, ma non comprende per cosa stiano o cosa intendano. Per il programma i simboli sono solo oggetti come altri.[13]

  • (A2) “Le menti hanno contenuti mentali (semantici)”.[13]

A differenza dei simboli usati da un programma, i nostri pensieri hanno significato: rappresentano cose e noi conosciamo cosa essi rappresentano.[13]

  • (A3) “La sintassi di per sé non è né condizione essenziale, né sufficiente per la determinazione della semantica”.[13]

Quest’ultimo assioma è ciò che Searle, con l’esperimento delle Stanza cinese, intende provare: la stanza cinese ha sintassi (vi è un uomo all’interno che manipola simboli), ma non ha semantica (non c’è niente e nessuno nella stanza che comprende cosa i simboli cinesi vogliano dire). Da ciò si deduce che avere sintassi non è abbastanza per generare la semantica.[13]

Searle afferma che da questi tre assiomi si possa derivare la seguente conclusione:

  • (C1) “I programmi non sono condizione essenziale né sufficiente perché sia data una mente”.[13]

I programmi hanno solo sintassi ed essa non è sufficiente per la semantica. Ogni mente, invece, ha semantica, per cui i programmi non sono assimilabili alle menti.[13]

Con questo argomento Searle intende mostrare che l’intelligenza artificiale, costruendo programmi che manipolano simboli, non può mai produrre una macchina che abbia una mente.[14]

Da questo punto della derivazione in poi Searle, proponendo un quarto assioma, intende rispondere ad una questione differente: il cervello umano segue un programma? In altre parole, la teoria computazionale della mente è corretta?[15]

  • (A4) “I cervelli causano le menti.”[15]

Secondo Searle possiamo derivare immediatamente che:

  • (C2) "Qualsiasi altro sistema capace di produrre menti dovrebbe avere poteri causali equivalenti, per lo meno, a quelli del cervello".[15]

Da ciò segue che qualsiasi cervello artificiale non deve seguire meramente un programma, ma dovrebbe essere in grado di riprodurre i poteri causali dei cervelli.[15]

Da questo deriva le ulteriori conclusioni:

  • (C3) "Ogni artefatto che producesse fenomeni mentali, ogni mente artificiale, dovrebbe essere in grado di duplicare lo specifico potere causale dei cervelli e non potrebbe fare ciò solo eseguendo un programma formale".[14]
  • (C4) "II modo in cui i cervelli umani attualmente producono fenomeni mentali non può essere dato soltanto dall’esecuzione di un programma per computer".[14]

Critica dei coniugi Churchland

[modifica | modifica wikitesto]

Tra le risposte all’argomento di Searle troviamo anche quella mossa da Paul e Patricia Churchland, che, però, a differenza delle altre, non è presente nell’articolo Menti cervelli e programmi.[16]

Per i coniugi Churchland le risposte date dal parlante inglese che manipola simboli cinesi sono sensate, ma non tanto perché la stanza capisca il cinese, infatti convengono con Searle sul fatto che essa non lo comprenda, quanto invece perché contengono un rifiuto del terzo degli assiomi alla base dell’argomento di Searle presentato nel 1990: “la sintassi non è condizione essenziale, né sufficiente per la determinazione della semantica”[1].

Secondo i Churchland, Searle non può rafforzare tale assioma con l’argomento della Stanza Cinese dal momento che di esso non è provata la verità; il terzo assioma, inoltre, dà per scontato ciò che si vuole dimostrare e questo si palesa quando lo si confronta con la conclusione C1: “I programmi non sono condizione essenziale né sufficiente perché sia data una mente”.[1] Tale conclusione è già espressa in gran parte da A3 per cui Searle con l’esperimento concettuale cerca di dare valore all’assioma A3. Per i Churchland Searle con l’esperimento della Stanza Cinese non riesce a fornire all’assioma 3 una base solida e pertanto costoro forniscono un argomento simile che possa fungere da controesempio. L’argomento, noto con il nome di La stanza luminosa si articola sui tre seguenti assiomi e sulla derivante conclusione[17]:

A1: “L'elettricità e il magnetismo sono forze”.[17]

A2: “La proprietà essenziale della luce è la luminosità”.[17]

A3. “Le forze, da sole, non sono essenziali, né sufficienti per dare la luminosità”.[17]

C1: “L'elettricità e il magnetismo non sono essenziali né sufficienti per dare la luce”.[17]

Se supponessimo che tale argomento fosse stato elaborato dopo l’ipotesi di Maxwell circa la natura elettromagnetica della luce, prima però che ne fosse riconosciuta la validità, esso sarebbe potuto essere un’obiezione a tale ipotesi, soprattutto se A3 fosse stato rafforzato da un esperimento concettuale. I Churchland, a tal proposito, chiedono di immaginare che all’interno di una stanza buia vi sia un uomo che tiene in mano un oggetto elettricamente carico, ad esempio, un magnete. Stando alla teoria di Maxwell, l’uomo facendo compiere al magnete movimenti verticali (su e giù) creerebbe un cerchio di onde elettromagnetiche sempre più ampio che farebbe diventare luminoso il magnete. Tuttavia, provando a fare tale esperimento si nota come il movimento di un qualsiasi oggetto carico non produca luminosità.[18]

Maxwell per riuscire a controbattere a tale evidenza può soltanto insistere sui tre assiomi, sostenendo, in primis, che A3 sia falso: è plausibilmente possibile, ma dà per scontato ciò che di fatto non è verificabile. Secondariamente l’esperimento non dice nulla di importante sulla natura della luce e, infine, sostiene che soltanto un programma di ricerca sistematico, che permetta di dimostrare il parallelismo tra proprietà della luce e onde elettromagnetiche, possa risolvere il problema della luce.[18]

Traslando tale risultato all’esperimento di Searle, risulta evidente che anche se apparentemente alla Stanza Cinese non si può attribuire semantica, non vi è, però, nessuna giustificazione alla pretesa, fondata su quest'apparenza, che la manipolazione di simboli cinesi, secondo determinate regole, non potrà mai dar luogo a fenomeni semantici.[19]

Repliche all'argomentazione di Searle

[modifica | modifica wikitesto]

La risposta del sistema

[modifica | modifica wikitesto]

La prima importante obiezione rivolta all’esperimento noto come “Stanza cinese” è conosciuta come replica (o risposta) del sistema. Essa sostiene che:[20]

“Mentre è vero che l’individuo chiuso nella stanza non capisce la storia, sta di fatto che egli è semplicemente parte di un intero sistema, e il sistema effettivamente comprende la storia […] la comprensione non viene ascritta all’individuo isolato, bensì al sistema complessivo di cui egli è parte”[21]

La persona all’interno della stanza è di madrelingua inglese e non conosce minimamente il cinese. A questa, però, vengono consegnati alcuni strumenti (un registro di regole relative ai simboli cinesi, carta e penna) grazie ai quali si può parlare di un sistema. Quest’ultimo viene in qualche modo incorporato da parte dell’individuo e come dice Searle:[20]

“non c’è nulla del sistema che non sia in lui. Se lui non capisce, non c’è alcun modo per cui il sistema possa capire, poiché esso è proprio una sua parte”[21]

In breve, la replica dei sistemi consiste nel fatto che, sebbene l’individuo nella stanza non comprenda il cinese, può risultare possibile la comprensione di questa lingua grazie al sistema complessivo: grazie cioè alla persona, agli strumenti di cui fa uso e alla stanza, considerati come insieme. Non essendoci un individuo che sappia parlare la lingua cinese all’interno della stanza, la stanza nel suo insieme non dovrebbe comprendere la lingua. La risposta del sistema evade però la questione, ribadendo più e più volte che il sistema deve capire il cinese[21]

Searle risponde a questa obiezione proponendo una particolare situazione: chiede cioè cosa succederebbe se la persona che si trova all’interno della stanza memorizzasse le regole e i vari meccanismi, tenendo conto di tutte le informazioni presenti nella sua mente. Ciò la renderebbe capace di interagire come se capisse effettivamente il cinese; ciononostante continuerebbe a seguire un insieme di regole, senza comprendere il significato dei simboli che sta utilizzando.[22]

La risposta del robot

[modifica | modifica wikitesto]

La seconda obiezione all’argomento della Stanza Cinese è nota come “Replica del Robot[23].

Questa impostazione ci chiede di pensare ad un programma del tutto nuovo. Ci viene infatti proposto di supporre di mettere un computer dentro un robot, le cui caratteristiche sono molteplici. Esso infatti non solo riceve simboli formali come input ed immette simboli formali come output, ma rende possibile il funzionamento del robot in maniera tale da rendere le sue azioni simili a quelle di un comportamento umano. L’idea è che il robot venga controllato da un cervello computerizzato che consente al robot stesso di poter vedere tramite una telecamera inglobata e di riuscire a muoversi grazie alla presenza di braccia e gambe che gli consentirebbero di agire.[23]In questo modo, si avrebbe un robot in grado di comprendere effettivamente e soprattutto avrebbe altri stati mentali. Implicitamente la risposta del robot rivendicherebbe il fatto che l’attività nota come capacità cognitiva non comprenda una mera manipolazione di simboli formali, ma che vi sia un complesso di rapporti causali (oltre che intenzionali) con il mondo esterno. Quest’impostazione andrebbe in qualche modo a riprendere l’approccio dei processi cognitivi incorporati, il quale sottolinea il fatto che i cosiddetti “processi cognitivi” trovano una loro realizzazione all’interno di un corpo, il quale è inserito in un ambiente.[22]

Searle replica che tale simulazione non riprodurrebbe le caratteristiche più importanti del cervello – i suoi stati causali ed intenzionali. Tutto quel che farebbe il robot, starebbe nel riuscire a seguire istruzioni formali per manipolare simboli formali. Non capirebbe nulla tranne le regole per la manipolazione di questi simboli. In breve, non saprebbe cosa succede attorno a sé, né il motivo per il quale si comporta in un determinato modo. Stando alla concezione di Searle perderebbe poco a poco la facoltà di una vera e propria comprensione.[23]

La replica del simulatore del cervello

[modifica | modifica wikitesto]

La replica del simulatore del cervello chiede di immaginare che il programma costituito dal computer (o dalla persona nella stanza) simuli la sequenza di accensioni neuronali e di sinapsi nel cervello di un parlante cinese quando capisce storie in cinese e risponde ad esse. Stando a tale dato la macchina, simulando la struttura formale del cervello cinese nel capire tali storie e nel dare loro una risposta, le comprende. Se negassimo ciò dovremmo altresì negare che i parlanti cinesi le abbiano capite, dal momento che a livello di sinapsi non ci sono differenze tra il programma del computer e il programma del cervello cinese.[24]

Searle ribatte a tale obiezione proponendo un esempio: supponiamo che, invece dell’uomo che manipola simboli cinesi pur non conoscendo il cinese, siamo in presenza di un uomo che opera un elaborato complesso di tubature per l’acqua congiunto da valvole. Quando l’uomo riceve certi simboli cinesi come input, consultando il programma in inglese, agisce aprendo o chiudendo le valvole indicate.[24]Ogni connessione dei tubi per l’acqua corrisponde a una sinapsi nel cervello cinese, e l’intero sistema è collegato così che dopo aver attivato tutti i giusti rubinetti, le risposte in cinese innescano gli output. Searle ritiene che l’uomo abbia agito come mero esecutore di indicazioni rappresentate dai simboli e che, tuttavia, alla fine del suo operare egli non comprenda né il cinese né il funzionamento del complesso di condutture per l’acqua. Il problema con il simulatore del cervello è che esso simula soltanto la struttura formale della sequenza di accensioni neurali e non ciò che è importante, ovvero la capacità del cervello di produrre stati intenzionali; Searle adopera tale esempio per mettere in luce l’insufficienza delle proprietà formali rispetto a quelle causali.[24]

La replica della combinazione

[modifica | modifica wikitesto]

La replica della combinazione è costituita dall’insieme delle tre precedenti repliche (sistema-robot-simulatore del cervello), così da essere più efficace. In questa replica viene portato come esempio un robot, con un computer all’interno del “cranio”, che simula tutte le sinapsi di un cervello umano e il cui comportamento risulta essere simile a quello di un uomo; viene, inoltre, chiarito che bisogna pensare a tale robot come a un sistema unificato e non a un semplice calcolatore con input e output. Da tale replica consegue che sia necessario attribuire intenzionalità al sistema.[25]

Secondo Searle inizialmente siamo portati a conferire intenzionalità al robot e ciò principalmente perché esso mette in atto un comportamento vicino al nostro, ma dimostrando come, in realtà, per funzionare il computer esegua un programma formale si riesce a confutare l’ipotesi di attribuzione ad esso di stati mentali. A dimostrazione di tale asserzione Searle propone di supporre che all’interno del robot vi sia un uomo che manipoli, conformemente a determinate regole, una serie di simboli formali non interpretati ricevuti dai sensori del robot e che mandi, come output, ai meccanismi motori i corrispondenti simboli formali non interpretati. Se supponiamo che l’uomo lì dentro sappia solo quali operazioni eseguire e quali simboli senza significato usare, allora l’ipotesi che il robot abbia intenzionalità non sarebbe giustificata. Veniamo, dunque, a conoscenza che il comportamento di tale robot è il risultato di un programma formale e quindi dobbiamo abbandonare l’assunto dell’intenzionalità.[26]

La replica delle altre menti

[modifica | modifica wikitesto]

La replica delle altre menti rimanda al fatto che per sapere se le persone hanno compreso il cinese o qualunque altra cosa si deve far riferimento al loro comportamento: se il computer supera i test comportamentali, come li supererebbe una persona, allora se si attribuisce cognizione a tale persona, di principio bisogna attribuirla anche al computer.[27]

Searle ribatte dicendo che tale replica non centra il punto della questione: “non è come io so che le altre persone hanno stati cognitivi, ma piuttosto che cosa è che io attribuisco loro quando li accredito di stati cognitivi”[28]. Non si possono valutare soltanto processi computazionali con input e output corretti perché questi possono esistere anche senza che vi sia lo stato cognitivo.[27]

La replica delle molte sedi

[modifica | modifica wikitesto]

Secondo la replica delle molte sedi prima o poi sarà possibile costruire dispositivi che abbiano i procedimenti causali che, secondo Searle, sono necessari per l’intenzionalità e ciò si chiamerà Intelligenza Artificiale.[29]

Searle sostiene che questa replica travisi il progetto dell’Intelligenza Artificiale forte ridefinendola come qualsiasi cosa che artificialmente produce e spieghi la cognizione, abbandonando, quindi, l’affermazione originale fatta per conto dell’intelligenza artificiale secondo cui “i procedimenti mentali sono procedimenti computazionali che operano su elementi formalmente definiti”. Searle, quindi, si rifiuta di rispondere a tale obiezione dal momento che non rispecchia una ben definita premessa su cui si è basata la sua intera argomentazione.[30]

  1. ^ a b c d e John R. Searle, Is the Brain's Mind a Computer Program?, in Scientific American, vol. 262, n. 1, gennaio 1990.
  2. ^ John R. Searle, La mente è un programma?, in Le scienze, n. 259, 1990.
  3. ^ a b c d e The Chinese Room Argument, su plato.stanford.edu. URL consultato il 29 gennaio 2020.
  4. ^ a b c d John. R. Searle, Minds, brains, and programs., in Behavioral and Brain Sciences, vol. 3, 1980.
  5. ^ a b Alan Turing, Computing Machinery and Intelligence, in Mind, LIX (236), pp. 433-460.
  6. ^ a b c Larry Hauser, Chinese room argument, pp. 1-2.
  7. ^ J.R.Searle, La riscoperta della mente, Torino, Bollati Borghieri, 1994, p. 110.
  8. ^ John R. Searle, 5, in The Rediscovery of the Mind, M.I.T. press, 1992.
  9. ^ Larry Hauser, Searle's chinese room, 2006, p. 8.
  10. ^ John R. Searle, Mente, cervello, intelligenza, Bompiani, 1988, p. 64.
  11. ^ John R. Searle, Mente, cervello, intelligenza, bompiani, 1988, p. 70.
  12. ^ a b c d John R. Searle, Menti, cervelli e programmi, traduzione di Graziella Tonfoni, Milano, 1984, pp. 48-49.
  13. ^ a b c d e f g h John R. Searle, Is the Brain's Mind a Computer Program?, in Scientific American, vol. 262, n. 1, gennaio 1990, p. 27.
  14. ^ a b c Larry Hauser, Chinese room argument, p. 6.
  15. ^ a b c d John R. Searle, Is the Brain's Mind a Computer Program?, in Scientific American, vol. 262, n. 1, p. 29.
  16. ^ Paul M. Churchland and Patricia Smith Churchland, Could a.Machine Think?, in Scientific America, 1990.
  17. ^ a b c d e Paul M. Churchland and Patricia Smith Churchland, Could a.Machine Think?, in Scientific America, 1990, p. 32.
  18. ^ a b Paul M. Churchland and Patricia Smith Churchland, Può una macchina pensare?, in Le scienze, n. 259, marzo 1990.
  19. ^ Paul M. Churchland and Patricia Smith Churchland, Could a machine think?, in Scientific American, 1990, p. 34.
  20. ^ a b Larry Hauser, Chinese room argument, p. 3.
  21. ^ a b c John R. Searle, Menti, cervelli e programmi, traduzione di Graziella Tonfoni, Milano, 1984, pp. 53-57.
  22. ^ a b Larry Hauser, Chinese room argument, 2001, p. 3.
  23. ^ a b c John R. Searle,, Menti, cervelli e programmi, traduzione di Graziella Tonfoni, 1984, pp. 57-58.
  24. ^ a b c John R. Searle, Menti, cervelli e programmi, traduzione di Graziella Tonfoni,, 1984, pp. 58-60.
  25. ^ John R. Searle, Menti, cervelli e programmi, traduzione di Graziella Tonfoni, Milano, 1984, pp. 60-62.
  26. ^ Larry Hauser, Chinese room argument, 2001, p. 4.
  27. ^ a b John R. Searle,, Menti, cervelli e programmi,, traduzione di Graziella Tonfoni,, Milano, 1984, pp. 62-63.
  28. ^ John R. Searle, Menti, cervelli e programmi, traduzione di Graziella Tonfoni, Milano, 1984, p. 63.
  29. ^ Larry Huser, Chinese room argument, 2001, p. 5.
  30. ^ John R. Searle, Menti, cervelli e programmi, traduzione di Graziella Tonfoni, Milano, 1984, pp. 63-64.
  • John R. Searle e Graziella Tonfoni, Menti, cervelli e programmi: un dibattito sull'intelligenza artificiale, Milano, 1984, ISBN 8870056147.
  • John R. Searle, La mente è un programma?, in Le scienze, n. 259, 1990.
  • John R. Searle, Mente, cervello, intelligenza, Bompiani, 1988.
  • John R. Searle, Is the Brain's Mind a Computer Program?, in Scientific American, vol. 262, n. 1, gennaio 1990.
  • Larry Hauser, Chinese room argument, 12 aprile 2001.
  • David Anderson, Jack Copeland, Artificial life and the chinese room argument, Febbraio 2002.
  • Mariano de Dompablo Cordio, Searle's Chinese Room Argument and its Replies: A Constructive Re-Warming and the Future of Artificial Intelligence, in Indiana Undergraduate Journal of Cognitive Science, 2008.
  • Michele Braccini, Intelligenza artificiale: test di Turing e alcune questioni filosofiche.
  • Paul M. Churchland and Patricia Smith Churchland, Può una macchina pensare?, in Le scienze, n. 259, marzo 1990.
  • Stanford Encyclopedia of Philosophy, su plato.stanford.edu. URL consultato il 20 gennaio 2020.

Altri progetti

[modifica | modifica wikitesto]

Collegamenti esterni

[modifica | modifica wikitesto]
Controllo di autoritàGND (DE4730171-5