di Antonio Lombardi

Almeno fin da quando Cartesio, nella seconda delle sue celebri Meditazioni, si è posto il problema della esistenza degli altri domandandosi, durante la sua operazione di radicale messa in dubbio di ogni conoscenza, cosa potesse assicurargli che quelli che vedeva passeggiare fuori dalla sua finestra fossero realmente degli uomini e non piuttosto degli automi, il problema filosofico della possibile esistenza dei robot e tanto più degli androidi (robot con sembianze e comportamenti umani) è sempre rimasto lo stesso, fino a Turing e oltre:

è realmente possibile per gli automi avere una mente? In altre parole: è possibile replicare artificialmente l’intelligenza? Va da sé che l’aspetto esteriore che un dispositivo dotato di intelligenza artificiale dovrebbe avere è trascurabile: il fatto che assomiglino a cani di bronzo, a fanciulle d’oro, a giganti di fango o ai robot come quelli di Guerre stellari è di secondaria importanza. Ciò che conta è se sia possibile che all’interno di tali “gusci” possa abitare una mente. (M. Salucci, Gli automi e l’intelligenza artificiale tra filosofia e scienza, 2012, p. 169).

Nel Novecento, il gioco dell’imitazione o test ideato dal matematico britannico Alan Turing, che proponeva di sostituire una macchina a un interrogante separato da altre due persone, una un uomo e l’altra una donna, che ha il compito di porre loro diverse domande per capire chi dei due sia l’uomo e chi la donna, mentre quest’ultima ha il compito di fornire risposte che tentino di ingannare l’interrogante, non farà che formalizzare in termini logici gli identici quesiti: quante volte la macchina si lascerà ingannare rispetto ad un essere umano? Ma soprattutto: cosa vieta di pensare che la macchina (concepita da Turing come un dispositivo che, prescindendo dai materiali e dalle modalità attraverso cui è stato costruito, è in grado di ricevere input e generare output di risposta), coinvolta nel procedimento di domanda-risposta-elaborazione della risposta-formulazione di una nuova domanda sulla base delle risposte ricevute, abbia dei veri e propri stati mentali? Uno stato mentale, per sua stessa definizione, non si presenta, dacché a presentarsi sono solo i segnali di output che da esso dipendono. Dunque, come fare a verificare che qualcosa come uno stato mentale si dia? È interessante notare come il problema, storicamente, abbia assunto una configurazione circolare: se quello dell’esistenza di altre soggettività aveva portato Cartesio a immaginare esseri artificiali che si comportano come gli umani ma non posseggono come loro una vita interiore, di fatto inesperibile da chi li osserva, l’informatica e la robotica contemporanee partendo dall’esistenza di macchine potenzialmente in grado di comportarsi da creature umane tornano a chiedersi se, in generale, sia possibile dedurre da certi comportamenti l’esistenza di una interiorità anche solo minimamente consapevole; se vogliamo una versione sorgiva di quella che la tradizione filosofica occidentale ha chiamato col nome di autocoscienza.

È questo il motivo per cui Turing non potrà che concludere che «il solo modo per cui si potrebbe esser sicuri che una macchina pensa è quello di essere la macchina e di sentire se stessi pensare» (A. Turing, Macchine calcolatrici e intelligenza, 1965, p. 169). Il grande merito di quel vero e proprio capolavoro di visionarietà estetica e concettuale che è stato Blade Runner, film del 1982 diretto da Ridley Scott, liberamente tratto dal romanzo Do Androids Dream of Electric Sheep? di Philip K. Dick, sembra essere, tra gli altri, quello di aver portato sul grande schermo questo problema, precorrendo numerosi altri e mirabili tentativi (basti citare L’uomo bicentenario; A. I.; Io, robot; Cloud Atlas e il recentissimo Ex Machina) ed estendendolo, a sommesso avviso di chi scrive, ben oltre i confini della questione circa la possibilità di una artificial intelligence, arrivando a chiedere allo spettatore se l’esistenza di comportamenti che, mostrando emozioni come affetto, sofferenza e desiderio di autodeterminazione e indipendenza, lascino presagire una certa sensibilità nell’essere che ci troviamo di fronte basti a rendere quell’essere degno di rispetto e considerazione morale. Veri e propri schiavi del futuro (che, come gli schiavi dell’antichità, pur mostrando atteggiamenti patentemente umani non vengono trattati come tali, ma anzi come oggetti, sulla base di una pretesa differenza “di sangue”) i replicanti del mondo futuristico di Blade Runner, programmati geneticamente per vivere una vita di pochi anni che impedisca loro di creare troppi danni in caso di ammutinamento, intraprendono una battaglia alla conquista della propria dignità di persone, meritevoli di vivere una vita libera e autonoma. Sulla base di quale criterio? È molto semplice: anche loro, come ogni essere umano, provano sentimenti e hanno desideri e preferenze; questo basta per avanzare la pretesa. La risposta che Turing aveva abbozzato al quesito da egli stesso formulato per mezzo del test ‒ come dedurre l’esistenza di una vita interiore da comportamenti del tutto simili ai nostri? ‒ non è poi molto dissimile da quella di fronte a cui ci mettono davanti Roy Batty (il capo dei replicanti ribelli) e i suoi compagni con le loro condotte: basta attenersi alla comune convinzione per cui esseri che mostrano una certa agency ‒ e cioè, stando alle parole di Illah Reza Nourbakhsh, tra i massimi esperti attuali in fatto di robotica, «la capacità di compiere scelte e il potere di rendere esecutive quelle scelte nel mondo» (I.L. Nourbakhsh, Robot fra noi, 2013, pp. 86-87) ‒ hanno in effetti una certa intelligenza. Se questo principio generale non valesse, non potremmo per assurdo dire nemmeno che il nostro migliore amico sia dotato di una qualche vita interiore, e sia perciò degno di essere trattato da umano. La cosa, messa così, diventa estremamente chiara:

 Non è che i robot siano equivalenti agli esseri umani ma che, se incominciamo ad attribuire agli esseri robotici l’agency e li trattiamo poi ingiustamente, allora agiamo in modo immorale e incoerente rispetto alla nostra stessa etica. (Ivi, p. 87)

Blade Runner dipinge a tinte fosche questa incoerenza, proiettandoci in un mondo che nel non riuscire a vedere la sensibilità e quindi i diritti inalienabili delle proprie stesse creature artificiali, dei propri stessi figli, si presenta, anche solo esteticamente, come fortemente disumanizzato; ma la pellicola lascia anche intravedere lo spiraglio di una redenzione possibile e doverosa: non solo Rick Deckard, l’agente incaricato di “ritirare” (cioè uccidere) gli automi “malfunzionanti” (cioè ribelli), si innamora di Rachael, una bella replicante che gli salva la vita, ma viene risparmiato da Roy Batty, che al termine dello scontro finale e sul punto di morire, decide di farsi più umano degli umani, dando ascolto al suo sentimento di pietà, trascurato ormai dalla maggioranza dei non automi. Di più, il finale volutamente ambiguo della settima versione della pellicola (ne esistono sette, delle quali l’ultima è in generale quella considerata la più attinente alla creatività e agli scopi del regista) che lascia intendere che anche Deckard sia in realtà un replicante non consapevole di esserlo, sembra dire allo spettatore proprio questo: nessuna differenza tra umani e replicanti!

Concludendo, si era accennato prima al fatto che questo film estende il problema ben al di là della questione circa la possibilità e l’esistenza di una intelligenza artificiale. In effetti, il discorso fatto finora sembra essere applicabile non solo agli automi. Questo ulteriore “allargamento” di orizzonte è sintetizzato magistralmente, parlando di aragoste e festival dedicati al loro consumo gastronomico, da David Foster Wallace:

 Forse la loro mancanza di una dotazione di endorfine/encefaline significa che nelle aragoste l’esperienza cruda e soggettiva del dolore è così radicalmente diversa da quella dei mammiferi che non merita nemmeno la definizione di “dolore”. Forse le aragoste sono come quei pazienti che hanno subito una lobotomia frontale che raccontano la loro esperienza del dolore come qualcosa di completamente diverso da quello che conosciamo io e voi. Questi pazienti provano evidentemente dolore fisico, però non lo trovano sgradevole ‒ ma neppure gradevole; piuttosto è come se lo sentissero ma non sentissero niente riguardo a esso ‒ e il punto sarebbe che il dolore non li fa sentire a disagio né è qualcosa cui vorrebbero sottrarsi. […] Lo stesso però, dopo tutte le intellezioni astratte, resta il fatto di quel coperchio sbatacchiato freneticamente, di quel patetico aggrapparsi al bordo della pentola. In piedi davanti ai fornelli, è difficile negare in modo significativo che quello è un essere vivente che sta provando dolore e vorrebbe evitare/sfuggire l’esperienza dolorosa. Per la mia mente profana, il comportamento dell’aragosta nella pentola sembra l’espressione di una preferenza […]. È difficile non percepire che sono infelici, o spaventate, anche se è solo una versione rudimentale di queste emozioni … e, di nuovo, che c’entra poi se è rudimentale? Per quale motivo una forma di dolore primitiva, non verbalizzata, dovrebbe essere meno urgente o scabrosa per la persona che se ne rende complice […]? È possibile che le generazioni future guarderanno alle nostre attuali agroindustrie e pratiche mangerecce in modo del tutto simile a come oggi noi vediamo gli spettacoli di Nerone o gli esperimenti di Mengele? La mia prima reazione è che un paragone del genere è ridicolo, estremo ‒ eppure il motivo per cui sembra estremo è che credo che gli animali siano moralmente meno importanti degli esseri umani (e intendo molto meno importanti, a quanto pare, perché il paragone morale qui non è il valore di una vita umana vs. il valore della vita di un animale, piuttosto il valore della vita di un animale vs. il valore del gusto di un essere umano per un particolare tipo di proteina) […]. Ci tengo a non dare l’impressione del petulante o del moraleggiante quando in realtà sono più che altro confuso. (D. Foster Wallace, Considera l’aragosta, 2014, pp. 280-283).

Insomma, e che si tratti di bestie e che si tratti di robot del tutto simili a noi, la grande domanda sembra essere ancora quella posta da Jeremy Bentham nel 1789 nei suoi Principles of Morals and Legislation: «the question is not, Can they reason? nor, Can they talk? but, Can they suffer