Contributo critico per l’unità del sapere e per un’ermeneutica dell’intelligenza artificiale

di Mons. Francesco Follo, membro Comitato scientifico DiCultHer

Questo scritto ha lo scopo di offrire elementi di riflessione riguardanti soprattutto l’unità del sapere e l’intelligenza artificiale, in cui cerco di proporre dei criteri per discernere e agire. Si potrebbe chiamare queste riflessioni: appunti redatti a titolo strettamente personale per contribuire a enucleare una teoria ed una prassi che, favorendo il sapere unitario, valorizzino criticamente (cioè con dei criteri) l’intelligenza artificiale[1].

Parte 1a: Spunti critici per l’unità del sapere e la pluralità dei saperi. Un sapere per vivere, dei saperi per lavorare.

  1. Per stabilire una terminologia, intendiamo per «sapere», in breve, un sapere di portata universale: destinato ad ogni uomo, e dal quale ogni uomo può trarre frutti. La matematica è utile a tutti, e chi ha imparato un po’ di matematica può fare cose che non potrebbe fare altrimenti. Ed è utile a tutti perché fa funzionare l’intelligenza: l’uomo che ha imparato la matematica è quindi più «intelligente» e «colto» degli altri. Oltre alla matematica, bisogna menzionare la filosofia, che ovviamente rende le persone più intelligenti, la logica, che permette di pensare in modo rigoroso, le scienze «sperimentali», che descrivono intelligentemente le cose con strumenti matematici, ecc. Non c’è una lista restrittiva…
  • L’uomo è capace di produrre sapere e di acquisire sapere, ma bisogna aggiungere che ha sempre a che fare con dei saperi. La geometria è un tipo di sapere (una «scienza»), la filosofia è un’altra, Platone chiede all’apprendista filosofo di aver studiato prima la geometria, e ci sono due tipi di conoscenza distinti – ma non si contraddicono. Un punto importante è che per molto tempo l’uomo (l’uomo occidentale) ha avuto solo una quantità limitata di saperi. E la conseguenza è che l’uomo colto, idealmente, potrebbe acquisire tutti i saperi disponibili. Il caso è ideale ma a volte realizzato. Aristotele è uno studioso universale (oltre al fatto che ha fondato una scienza, la logica, ha fatto progredire la biologia, e ha dato alla filosofia una forma che ha mantenuto fino ad Heidegger). Nel XVI secolo, Pico della Mirandola è uno studioso universale (così lui si autodefinisce). Nel secolo successivo, incontriamo gli ultimi due scienziati universali, Pascal e poi Leibniz.
  • La storia della conoscenza entra in un periodo notevole con la creazione delle università nel XIII secolo. L’Università, universitas scientarum, ha l’ambizione (originariamente realizzata) di riunire sotto lo stesso tetto istituzionale tutto il sapere esistente che può essere insegnato: scienze, «studi classici» (tutto ciò che riguarda l’uso corretto del linguaggio), filosofia e teologia. L’Università razionalizza così ciò che è un dato di fatto fin dall’epoca greca. Ma l’accesso a tutto il sapere era un privilegio di pochi nell’Antichità, e poi è stato democratizzato. C’è però un secondo effetto, la specializzazione. Nell’Università si studia una disciplina alla volta (il che è saggio), ma soprattutto i professori insegnano ciascuno una disciplina e una sola. Ed è pericolosa, in un caso specifico, la coesistenza di filosofia e teologia nell’Università. I filosofi, statutariamente, sono solo filosofi, ai quali è “vietato” invadere il dominio dei teologi. (Ma ai teologi è permesso praticare anche la filosofia – si pensi ai commenti di Tommaso d’Aquino su Aristotele). E stabilendo tale barriera, gli statuti dell’Università creano il filosofo professionista, metodologicamente indifferente alla teologia, e capace, se necessario, in nome del suo metodo, di contraddire ciò che si insegna nella facoltà di teologia. Non ci volle molto, quindi, perché la situazione diventasse conflittuale. Nel 1277, il vescovo di Parigi, Étienne Tempier, condannò una serie di proposte provenienti dalla facoltà di filosofia (e anche proposte filosofiche provenienti dalla facoltà di teologia). La censura è rivolta a una teoria che non è mai stata difesa come tale, la teoria delle «due verità»: il vero in filosofia non è il vero in teologia, a ogni disciplina la sua verità. In ogni caso, richiama l’attenzione su una situazione pericolosa in cui il filosofo conosce solo la filosofia e vuole farne «la» scienza per eccellenza. Le condanne del 1277 sono state abbondantemente studiate.
  • La divisione universitaria del sapere permane fino ad oggi, al massimo, in alcune parti del mondo ci si chiede se la teologia merita di stare sotto lo stesso tetto della filosofia o della fisica. Il problema principale sarà posto dallo sviluppo moderno delle «scienze» (aprioristiche o sperimentali) dal XVI secolo. Ancora nel XVI secolo, è possibile sapere (quasi) tutto. Pico della Mirandola è un enciclopedista, e se Bellarmino si oppone a Galileo, non è per mancanza di conoscenza dell’astronomia (aveva imparato quanto tutti gli altri, cioè poco), ma per mancanza di comprensione di una rivoluzione scientifica. D’altra parte, la conoscenza matematica è cresciuta esponenzialmente dal XVII secolo, altre conoscenze scientifiche sono cresciute e continuano a crescere oggi. Oggi, lo scienziato universale non esiste più.
  • La specializzazione, inoltre, gioca oggi un ruolo all’interno di ogni scienza. Oggi, nessun matematico padroneggia tutta la matematica. Fino al XIX secolo, tutta la logica da conoscere poteva essere appresa in un anno. Oggi ci sono quasi 350 sistemi logici riconosciuti come coerenti, e non c’è un logico che li padroneggia tutti: nei limiti di una stessa scienza, è necessario fidarsi di chi non lavora sugli stessi problemi. La specializzazione ha chiaramente influenzato la teologia. E colpisce anche, ma in modo meno allarmante, la filosofia: il filosofo competente, oggi, non parla di ogni questione filosofica con l’autorità di uno specialista, ma le capisce tutte e può partecipare a (quasi) ogni dibattito. Tuttavia, la specializzazione colpisce, in modo abbastanza chiaro, la filosofia «analitica», che è concepita sul modello della conoscenza scientifica.
  • Un fattore nuovo e determinante è il moderno sviluppo della tecnologia. Lo scopo della tecnologia è quello di far accadere le cose, o di capire per far accadere le cose. Quindi «applica», in linea di principio, ciò che la scienza vede o scopre. Tuttavia, la distinzione è sfocata. C’è la matematica applicata. Il primo modello di computer è un modello matematico (macchina di Turing). Il fisico ha bisogno di strumenti di misura che soddisfino le sue esigenze. La persona che propone un programma di ricerca fondamentale spesso chiede (a) cosa sta cercando e (b) a cosa serviranno i suoi risultati. Il mondo antico e medievale aveva un modello «contemplativo», teorico della scienza, noi abbiamo più spesso un modello pratico, utilitaristico. La scienza aiuta a conoscere e ad arricchire la propria umanità, aiuta a fare e a trasformare il mondo.
  • Un fattore quasi altrettanto nuovo e determinante è l’orientamento professionale della conoscenza. Nell’antichità, lo studioso è un uomo di piacere (otium): è ricco, o i ricchi gli permettono di lavorare in pace. Questo continuò nel Medioevo e nei tempi moderni. Pico della Mirandola non aveva una professione, né Pascal, ecc. (Ma neanche loro sono andati all’Università). Lo studente, nel Medioevo, vuole imparare, sarà un ecclesiastico e/o un insegnante, ma con l’eccezione del diritto e della medicina le discipline universitarie non portano realmente alla pratica di un mestiere – nel senso recente di «lavoro». Questo fattore deve essere preso in considerazione. Un gran numero di mestieri, fino a poco tempo fa, erano affidati ad «apprendisti» che avevano imparato sotto un maestro – anche nel caso della nobile professione dell’architettura. Gli apprendistati non erano accademici. Oggi, almeno in Francia, l’Università ha dei corsi di studio «professionali», «pro», che portano alla licenza e che non hanno altro scopo (rispettabile) che permettere allo studente di guadagnarsi da vivere.  In Francia, l’educazione «classica» e l’educazione «tecnica» erano date in diverse scuole secondarie 50 anni fa. Oggi, gli « Instituts Universitaires de Technologie » danno diplomi universitari. Le Scuole di Commercio e le Facoltà di Legge forniscono un insegnamento professionale. Il fenomeno è irreversibile e non è da disprezzare.
  • Una conseguenza degli eventi citati è la marginalizzazione degli studi «letterari», nel senso più ampio della parola, includendo la filosofia e la teologia. Da un lato, non hanno più il prestigio che avevano fino al XIX secolo, quando si dava per scontato che chiunque che si laureasse in un’Università, anche solo per imparare la professione di avvocato o medico, dovesse avere una «cultura generale»: scienze umane «classiche» (lingue antiche), scienze umane «moderne» (lingue viventi), filosofia. D’altra parte, non portano a molte professioni. Nella maggior parte dei casi, gli studenti delle discipline letterarie non avranno altro futuro che come insegnanti, e la necessità di insegnanti in queste discipline sta diminuendo. Dal punto di vista dell’utilitarismo e dello scientismo, gli studi letterari non «servono» a niente: non forniscono nessuna conoscenza «positiva» che permetta di avere una presa sulle cose.
  • Un fatto nuovo (o considerato tale), ma che non risolve alcun problema, è il crescente interesse per l’interdisciplinarità all’interno della comunità accademica. Questo, infatti, è evidente. Un logico e un matematico hanno domande su cui lavorare insieme. Anche un filosofo e un teologo. T.F. Torrance ha avviato una ricerca tra scienziati e teologi. E così via. L’interdisciplinarità deve essere aiutata dalle istituzioni accademiche – ma è sempre il lavoro congiunto di due o tre specialisti, e non di più. E poiché non possono praticarlo, gli specialisti accademici di discipline che non hanno nulla in comune non hanno altra ambizione che quella di una «conversazione» tra persone di ben educate.
  1. Bisogna prendere atto di tutto ciò. Ma dobbiamo prenderne atto e sottolineare un deficit: la frammentazione della conoscenza, regno della scienza e della tecnologia, il perdente ha un nome: l’uomo. L’uomo è il perdente, perché, a parte alcune eccezioni, la conoscenza che acquisisce gli è utile solo durante il tempo in cui esercita una professione, si impegna nella ricerca scientifica, ecc, in breve, durante un tempo «specializzato». E durante il tempo in cui non esercita la sua professione, ecc., non gli resta nulla di molto umano, e molto umanizzante, da «fare». Dobbiamo quindi perorare la causa della cultura generale. Nella Roma antica, la filosofia o la poesia erano attività praticate durante il tempo libero, otium. Questo tempo è stato quindi molto «utile». Era usato da un aristocratico che aveva ricevuto le migliori conoscenze del suo tempo fino all’età adulta. Alcune di queste conoscenze erano utili: imparare a parlare in pubblico era essenziale per una carriera politica. Alcuni erano «inutili». Ma la conoscenza inutile, quella che costituisce la cultura generale, ha alimentato tutto il tempo che non era dedicato al lavoro. La conoscenza specializzata porta a dei lavori. La conoscenza generale ci permette di affrontare il «mestiere di vivere». Senza di essa, si incontrano solo specialisti; l’umanità è frammentata, e ciò che tutti hanno in comune è poco.
  1. I nostri contemporanei hanno un’abbondanza di conoscenze, ma sono privi di cultura generale. Al di fuori del tempo dedicato al loro lavoro, hanno poco da fare: poco da leggere, poco da dire, poco da ammirare, ecc. Nell’istruzione superiore, in Francia per esempio, le classi preparatorie letterarie sono ancora istituzioni che insegnano una pluralità di materie – ma soffrono dello scarso livello culturale dell’istruzione secondaria. E nelle Università, pochi studenti acquisiscono conoscenze che li aiutano a vivere. L’obiettivo da proporre a tutti sarebbe dunque quello di una “resurrezione” nel senso di far rivivere le umanità inutili, cioè più che utili, senza le quali l’uomo perde il gusto della sua vera vita. Questa resurrezione potrebbe essere realizzata attraverso misure di pazienza. Prima di specializzarsi, coltivare. Prima di impegnarsi in studi proficui, dare all’allievo il gusto della lettura, i mezzi (linguistici) per leggere, il gusto del lavoro del pensiero, ecc. Oggi, forse, se l’istruzione secondaria continua ad essere molto debole, i primi cicli universitari dovrebbero porsi come obiettivo primario quello di dare agli studenti la cultura generale di cui hanno bisogno per proseguire con successo gli studi specializzati. Un esempio è la pedagogia dei «grandi libri», nata con Jefferson e praticata nei college americani. Forse dovremmo impararne qualcosa.

Parte 2a: Spunti critici per un’ermeneutica dell’intelligenza artificiale

Non avendo fatto particolari studi scientifici, non sono in grado di spiegare bene che cosa siano le reti neuronali, circa le quali chiedo delucidazioni agli scienziati, ma, in ogni caso, si confonde il “mezzo” che in questo caso è il neurone, con il principio vitale o anima La coscienza “userà” i neuroni ma non è riducibile a materia.

            E’ un’illusione oppure è l’inevitabile presa di coscienza causata in parte dalla recente e attuale rapidissima progressione tecnica, e in parte dalla scarsa trasparenza dei processi decisionali nelle reti neurali. 

Purtroppo ce ne sono tante di persone così, e anche persone famose e/o intelligenti si sono espresse in questa direzione (mi vengono in mente Steven Hawking, Elon Musk e Bill Gates), e tendono a influenzare il pensiero comune: la loro preparazione tecnica viene forse scambiata per onniscienza. Purtroppo nessuno ha mai posto loro le questioni che ho sopracitato, e il pensiero critico è merce rara.

Ad onor del vero non parlano specificamente di intelligenza artificiale forte, ma piuttosto paventano scenari apocalittici in cui le macchine rimpiazzano l’uomo, in quanto sarebbero in grado di “evolversi” più velocemente. La differenza è sottile, e forse insignificante, dato che sentirsi minacciati da un’intelligenza artificiale implica riconoscere al computer un grado di autoconsapevolezza tale da attribuirgli un istinto di autoconservazione a scapito dell’uomo. 

Un’altra questione che potrebbe diventare di interesse in un futuro più o meno prossimo è il modo di trattare degli ipotetici futuri androidi (o anche solo l’assistente virtuale che interagisce tramite comandi vocali). A me è sembrato molto strano quando ho saputo che c’è chi si è posto il problema, per esempio chiedendosi se bisogna insegnare ai bambini a dire “grazie” e “per favore” all’assistente vocale di Amazon o di Apple…chiaramente la cosa è abbastanza assurda, ma il fatto stesso che se se ne parli significa che la percezione comune dell’intelligenza artificiale è completamente ingenua. 

            Queste ultimi due aspetti sono più pertinenti al sentire comune che non a una discussione tecnico/filosofica, però penso che sia importante sottolineare i limiti intrinseci dell’intelligenza artificiale in un epoca in cui si pensa di demandare al computer il controllo delle automobili. 

Piaccia o no, una macchina a guida autonoma potrebbe dover rispondere a una situazione del tipo “trolley problem” (https://en.m.wikipedia.org/wiki/Trolley_problem), il che significa fondamentalmente affidare a una macchina la soluzione di un problema etico. L’ovvia obiezione è che il comportamento è in realtà predefinito dal programmatore; purtroppo questa ipotesi è sempre meno vera a causa delle peculiarità delle reti neurali. In parole povere, molti pensano che un algoritmo ben progettato possa essere più bravo di una persona a risolvere un problema etico con pesanti ripercussioni sulla vita delle persone.


            Per affrontare criticamente, cioè – come ho detto all’inizio – con dei criteri di giudizio, il complesso tema dell’’intelligenza artificiale “forte” che potrebbe rendere “umane” le macchine secondo messe, andrebbero affrontate le seguenti questioni:

1. Questione antropologica:

            1.1 .se l’uomo ha un anima o psiche (come molti filosofi da Socrate in poi, passando per Freud dimostrano). la macchina non c’e l’ha e nessuano può darlgiiela. L’intelligenza è legata all’anima, vale a dire alla parte vitale, spirituale dell’uomo, che ovviamente è anche corpo, ma non è riducibile a materia.

1.2.Non credo che si possa parlare di “corpo” del computer. E’ hardware anche se gli possona dare una apparenza umana e chimarlo androide. Il buon senso dice che se ferisco o uccido un essere umano nel suo corpo, commetto un delitto doloso o colposo. Ma nonposso essere accusato di “omicidio”, se rompo un computer. E non credo che un tecnico di hardware abbia le stesse capacità e responsabilità di un medico per l’uomo.

1.3. La conoscenza non è legata solo all’intelligenza ma anche al’emozione, , ai sentimenti, all’amore. Chi ama bene conosce di più e meglio (non intratur in veritatem nisi per caritatem [s. Agostino] e non est perfecta cognitio sine dilectione [Bonaventura da Bagnoregio. La parola “studio” viene dal latino “studium” che vuol dire amore. E spesso si dice che si studia ciò che “piace”, ciò che interessa.

1.4. I dati entrano nell’intelligenza umana che li elabora, passando dalla sensazione alla percezione, attraverso i sensi che sono 5: vista, udito, olfatto, gusto e tatto. Non mi pare che le macchine possano fare ciò.

2. Questione psicologica.

2.1 sarebbe interssante sapere come gli psicologi e gli psicanalisti vedono la questione psiche-corpo. Non mi risulta che ci siano psichiatri per i computer.

2.2. dare una risposta a chhe cos’è la “coscienza” psicologica, per poi arrivare alla coscienza morale.

3. Questione gnoseologica.

3.1 farci dire dagli epistemologi e dai gnoseologi sia

3.2.1 se conosciamo il vero e

3.2.2. come conosciamo la realtà e qual intelligenza ne abbiamo.

3.3 Invece di dire che la ragione è una misura (è vero per la ragione scientifica), si potrebbe parlare anche di ragione come “finestra” aperta sul reale.

4. Questione filosofica “tout court”: Può un computer porsi la questione: “chi sono io?”, “da dove vengo?” e, soprattutto: “dove vado?”

5. Questione informatica relativa

– all’hardware: la potenza di calcolo dei computer è destinata a crescere all’infinito o ha un limite? E relativa al

-al software: gli analisti e i programmatori che stanno facendo le ricerca sulla cosiddetta intelligenza artificiale a che filosofia si ispirano, in modo cosciente o no?

Dire che un computer è più intelligente di un uomo perchè vince a scacchi è come dire che la Ferrari è più intelligente di me perchè fa i 100 metri in pochissimi secondi e io ce ne metto almeno 10”.

Altra cosa è l’intelligenza artificiale “debole” che va usata come “protesi” dell’intelligenza umana. E’ auspicabile che le macchine alleggeriscano o facilitino il nostro lavoro intellettuale efisico, ma credo che sia impossibile che sostituiscano l’uomo. L’uomo è un vivente pensante, la macchina no.

In ogni caso, il tema dell’Intelligenza Artificiale cattura oggi l’impegno e la riflessione di molti uomini di scienza a livello internazionale, che afferiscono a diverse discipline: ingegneria, logica e matematica, neuroscienze e la filosofia. È anche molto presente nell’immaginario collettivo, come testimoniato persino dalla vasta filmografia in merito.

Potrà una macchina pensare – nel senso pieno del termine? Potrà in tutto e per tutto equipararsi ad un essere umano con la sua vita intellettiva integrale? Questi sono evidentemente alcuni tra gli interrogativi più profondi e radicali che gli sviluppi dell’Intelligenza Artificiale pongono all’umanità. Essi riguardano non solo gli uomini di scienza, ma anche politici e sociologi, filosofi e uomini di fede.

            La storia dell’Intelligenza Artificiale – che in senso proprio inizia con gli anni ’50 del secolo scorso – vede alternarsi fasi di grande ottimismo e fasi di presa di coscienza delle difficoltà nel riprodurre l’intelligenza “naturale”, quella umana. Non è questa la sede per ripercorrere tale storia. È significativo, però, sottolineare che la valutazione dei risultati raggiunti dipende fortemente dagli obiettivi che la comunità scientifica e tecnologica si pone di volta in volta. Da questo punto di vista, rimane importante la distinzione tra “Intelligenza Artificiale forte” e “Intelligenza Artificiale debole”. L’Intelligenza Artificiale debole si pone come fine la progettazione e costruzione di macchine che agiscano come se fossero intelligenti. L’Intelligenza Artificiale forte, invece, si pone l’obiettivo massimale di concepire macchine effettivamente simili all’uomo, al punto da poter sviluppare persino un’autocoscienza. Inoltre, secondo alcuni ottenere un’Intelligenza Artificiale implicherebbe riprodurre in tutto e per tutto il substrato materiale che assicura all’uomo la sua pratica raziocinativa: il cervello. Secondo altri, invece, si tratterebbe “semplicemente” di riprodurre l’esito (o alcuni degli esiti) di quella pratica raziocinativa, indipendentemente dalle specifiche fisiche e ingegneristiche escogitate per la struttura della “macchina pensante”.

A tutt’oggi, una macchina che riproduca i dettagli dell’organizzazione cerebrale e che sappia esibire tutte le caratteristiche più alte dell’intelligenza umana, autocoscienza inclusa, sembra al di là della portata degli sviluppi tecnici correnti o concretamente prevedibili. A tale proposito, va anche tenuto presente che, malgrado i grandissimi successi delle neuroscienze, un’immagine chiara e completa di come sia costituito e di come funzioni il cervello non è ancora disponibile. Tuttavia, macchine (o programmi informatici) in grado di compiere operazioni complesse con prestazioni comparabili – o talvolta, per specifici contesti, persino superiori – a quelle umane – esistono e, in alcuni casi hanno anche lasciato il laboratorio di ricerca per diffondersi in molteplici applicazioni tecniche sia di frontiera, sia ormai commercialmente disponibili. Questo anima un ottimismo di fondo che lascia aperta, almeno per alcuni, la possibilità – non importa quanto remota – di arrivare un giorno ad esaudire i desideri dell’Intelligenza Artificiale forte.

Le brevi note che seguono sono volte a riflettere su alcuni aspetti che – a mio parere – potrebbero, in qualche modo, sancire differenze qualitative o “essenziali” tra Intelligenza Artificiale e intelligenza umana. Si tratta di riflessioni filosofiche informate su alcuni degli aspetti tecnico-scientifici coinvolti.

Il problema appare certamente meno profondo se si considera l’Intelligenza Artificiale debole, dal momento che, per definizione, in questo caso l’obiettivo è quello di produrre macchine in grado di operare come se fossero intelligenti, senza pretendere di essere vere e proprie riproduzioni dell’intelligenza umana. Inoltre, i risultati già ottenuti – talvolta realmente sorprendenti – si rivolgono comunque a contesti e compiti specifici e limitati. Tuttavia, se gli sviluppi futuri fossero effettivamente in grado di produrre macchine che operassero come se fossero intelligenti in ogni contesto o situazione, e a proposito di qualsiasi ambito di pensiero e azione tipicamente umani, ciò ci confronterebbe di per sé con uno dei due aspetti dell’Intelligenza Artificiale forte – ovvero la possibilità di riprodurre in toto, l’intelligenza umana. È vero: in un simile caso, non si avrebbe ancora la realizzazione del sogno di riprodurre non solo le prestazioni, ma anche la “struttura” o la “costituzione” del substrato dell’intelligenza umana. Tuttavia, considerando che, come accennato, oggi non possediamo ancora un’immagine chiara e completa di come sia costituito e, soprattutto, di come funzioni il cervello, la realizzazione di macchine in grado di operare come se fossero intelligenti in ogni contesto e qualsiasi ambito, porrebbe comunque in maniera radicale il problema dell’unicità e della irriproducibilità dell’intelligenza umana.

Vi sono, secondo me, almeno tre aspetti che rendono difficile pensare che un giorno le macchine potranno sostituire in tutto e per tutto l’intelligenza umana: la dimensione affettiva, la dimensione semantica, e una terza dimensione che, per ora, chiamerei “motivazionale”.

La tradizione filosofica ha sempre riconosciuto, in un modo o nell’altro, l’influenza di affetti, emozioni, sentimenti, e “appetiti” sulla cognizione umana. Oggi sembra chiaro anche dal punto di vista sperimentale che gli stati emotivi influiscono sui processi decisionali e razionali: sulle scelte. Questo, peraltro, anche indipendentemente dal tema dell’Intelligenza Artificiale, pone un problema dal punto di vista della cosiddetta “rational choice theory”. Secondo questo approccio, una decisione razionale scaturirebbe da un processo interamente logico che tende ad una decisione ottimale – vale a dire, che massimizzi l’utilità e minimizzi i rischi. I processi decisionali umani reali – anche, ma non soltanto, per la rilevanza degli stati emotivi per come sottolineato dalla cosiddetta “affect heuristics” – non seguono sempre e necessariamente un tale processo. Neppure gli obiettivi delle persone in carne ed ossa sembrano sempre essere quelli della massimizzazione dei risultati, come sottolineato dal fatto che i decisori reali possono anche accontentarsi di soluzioni “sufficientemente buone” pur se non ottime (si consideri la distinzione tra “massimizers” e “satisficiers”). Se le cose stanno così, allora un’Intelligenza Artificiale (forte) che intendesse riprodurre in tutto e per tutto l’intelligenza umana, dovrebbe riprodurne anche gli aspetti emotivi e affettivi. Ora, in primo luogo, non sembra oggi possibile riprodurre artificialmente quella sfera emotiva e “sentimentale” che caratterizza diffusamente l’intelligenza umana: e questo pone già un limite importante al sogno dell’intelligenza Artificiale (forte). In secondo luogo, introdurre questa dimensione nelle “macchine pensanti” renderebbe il loro procedere meno “razionale” (nel senso della “rational choice theory”). Queste considerazioni pongono un interrogativo profondo a coloro che, dal punto di vista tecnico, si occupano di Intelligenza Artificiale: quale deve essere il fine di questi sviluppi tecnologici? Riprodurre e imitare l’intelligenza umana, oppure supportare quest’ultima in contesti ed ambiti specifici lasciando gli aspetti integrali e complessivi all’uomo in carne ed ossa, ragione e sentimento?

A tale proposito, poi, vorrei notare che la tradizione filosofica (e anche teologica) ha sempre sottolineato l’importanza di amore e carità per la ricerca stessa della verità. Perseguire fini conoscitivi alti, richiede una tensione verso la verità che non può essere interamente spiegata in termini utilitaristici o “di convenienza”. Questo è un aspetto di quella dimensione motivazionale prima accennata e sulla quale tornerò a breve. Per ora, vale la pena sottolineare che una macchina intelligente che volesse imitare e riprodurre esaustivamente l’intelligenza umana dovrebbe contemplare anche questo aspetto direi “emotivo alto”, accanto naturalmente a quanto già detto rispetto alla generale influenza degli stati emotivi sui processi cognitivi e decisionali.

Un secondo aspetto problematico dell’Intelligenza Artificiale (forte) ha a che fare con la distinzione – ormai classica nella filosofia del linguaggio moderna e contemporanea – tra sintassi e semantica. È opinione diffusa che i calcolatori, compresi quelli che dovrebbero supportare una intelligenza artificiale, possano trattare soltanto legami sintattici tra simboli non interpretati (cioè privi di significato), mentre non potrebbero trattare i contenuti semantici possibilmente attribuibili a tali simboli. Questo, di per sé, porrebbe un enorme limite alla possibilità di realizzare un’Intelligenza Artificiale che possa imitare in toto l’intelligenza umana, la quale trova nell’universo dei significati una dimensione fondamentale da molti punti di vista. A tale proposito viene talvolta proposta l’idea che, in realtà, anche la semantica di alto livello potrebbe essere ridotta alla sintassi, che il limite sarebbe solo quello della potenza di calcolo e dell’enorme complessità necessaria, e che quindi in futuro si potrà giungere a macchine in grado di trattare anche gli aspetti semantici più sofisticati esibiti dall’intelligenza umana. A tale proposito, credo che due considerazioni potrebbero risultare opportune e interessanti.

In primo luogo, la linguistica ha spesso considerato la sintassi e la semantica come due aspetti distinti del linguaggio. La sintassi definirebbe una serie di regole di composizione generali applicabili a ampie classi di elementi linguistici senza riguardo al significato che risulterebbe da quelle costruzioni composte. Approcci più recenti – sempre più connessi con gli sviluppi delle neuroscienze –propongono invece una maggiore interdipendenza tra sintassi e semantica (per esempio, le cosiddette “Cognitive Grammar” e “Construction Grammar”). Il punto rilevante è che questi sviluppi suggerirebbero una “riduzione” della sintassi alla semantica piuttosto che viceversa!

In altre parole, le costruzioni sintattiche usate nel linguaggio e nel ragionamento umani sarebbero intrinsecamente dipendenti dai concetti e/o dai significati delle espressioni combinate – vale a dire, dalla semantica. Di conseguenza, secondo questi approcci, non esisterebbe una “sintassi separata” genericamente applicabile agli elementi semantici indipendentemente dal loro significato.

In secondo luogo, non andrebbe perso di vista cosa sia la semantica. Speso si pensa che la semantica sia soltanto la rete di relazioni tra termini. Ad esempio, se si cerca su un dizionario un termine, questo termine è definito da altri termini messi in relazione.  “Calendario” è definito come un insieme di fogli che riportano i giorni, le settimane e i mesi in un anno. Chi conoscesse il significato di tutti i termini usati in questa definizione potrebbe capire il termine “calendario”; chi non ne conoscesse alcuni, potrebbe continuare a cercare sul dizionario, ricorsivamente. Tuttavia, per quanto si portasse avanti questo processo, l’individuo che non avesse mai visto o posseduto un calendario, assai difficilmente avrebbe una autentica comprensione di quel termine. La comprensione di un termine dipende profondamente anche dalle esperienze reali fatte dal parlante nella sua vita. Il significato di parole come “povertà” o “libertà” cambia molto a secondo della situazione personale, della propria storia di vita e anche del contesto storico e/o geografico generale in cui ci si trova. I significati sono connotati emotivamente tanto quanto lo sono razionalmente. Su questa base, dunque, realizzare macchine che possano – secondo l’obiettivo dell’Intelligenza Artificiale forte – riprodurre ogni aspetto dell’intelligenza umana non avrebbero solo bisogno di una sufficiente potenza di calcolo ma, per dirla enfaticamente, avrebbero bisogno di vivere come un essere umano. Non solo computare simboli, ma fare esperienze: patire e gioire, desiderare e temere, vedere, udire, toccare, odorare e gustare. A questo punto, dunque, l’Intelligenza Artificiale implicherebbe anche una “Vita Artificiale” e, come sapete, i problemi incontrati nei tentativi di produrre “macchine viventi” sono almeno altrettanti, e altrettanto gravi, di quelli incontrati dall’Intelligenza Artificiale.

Giungerei così al terzo aspetto che mi sono riproposto di toccare, quello che prima ho chiamato “motivazionale”. È chiaro, oggi, che molti aspetti dell’intelligenza umana provengono dal lungo percorso evolutivo che ha portato alla nostra specie biologica. Alcuni di questi aspetti sono anche condivisi – almeno in parte – da altre specie animali non umane. È anche noto che, secondo le teorizzazioni circa l’evoluzione biologica, le novità che sono emerse nella storia naturale, anche dal punto di vista comportamentale e cognitivo, rispondono ad una logica di necessità. Necessità intesa non nel senso che il processo evolutivo sarebbe in qualche modo necessitato, ma nel senso che lungo la storia evolutiva emerge ciò che, per le varie specie biologiche nei vari contesti ambientali, è necessario per sopravvivere – pena, appunto, soccombere alle sfide ambientali. Questo quadro concettuale, sebbene certamente valido per molti aspetti persino della cognizione umana, sembra però non essere in grado di spiegare interamente quella che a buon diritto può essere chiamata l’evoluzione culturale caratteristica della storia umana. La domesticazione di piante e animali, la costruzione di città e luoghi di culto, l’invenzione della scrittura e dell’aritmetica, la nascita della cosiddetta cultura teorica, delle università, della scienza moderna, le rivoluzioni industriali che hanno segnato gli ultimi secoli: tutto ciò è difficilmente ascrivibile solamente alla necessità nel senso di cui poco sopra. Nessuna di queste innovazioni (e le miriadi di invenzioni specifiche che le hanno accompagnate), strettamente parlando erano necessarie alla sopravvivenza dell’essere umano. La questione risulta ancor più profonda se guardata dal punto di vista dei singoli individui che hanno dato contributi essenziali a questi avanzamenti. Si pensi a Socrate, che per amore della verità e della giustizia si è lasciato costringere al suicidio; oppure a Galileo Galilei che nella convinzione delle sue idee cosmologiche è andato incontro a due processi. Queste poche e sommarie riflessioni – sulle quali molto potrebbe essere aggiunto – pongono con forza il problema delle motivazioni che spingono l’essere umano a ricercare, a voler conoscere ed inventare – che lo spingono verso la verità e a voler migliorare le proprie condizioni materiali e spirituali al di là delle strette necessità.

            Questo è un tema grande, che certamente non può essere esaurito in questa sede. Tuttavia, esso pone un ulteriore problema all’obbiettivo dell’Intelligenza Artificiale forte. Una macchina pensante che volesse riprodurre in toto l’intelligenza umana dovrebbe anche saper riprodurre questo aspetto “motivazionale”. In altre parole, non dovrebbe solamente essere in grado di compiere operazioni intelligenti per risolvere compiti etero-assegnati, ma dovrebbe essere anche in grado di auto-assegnarsi compiti e traguardi, di avere aspirazioni. Oggi, reti-neurali sofisticate e i cosiddetti “sistemi esperti” sono in grado di compiere operazioni intelligenti in maniera comparabile – e talvolta persino superiore – rispetto all’essere umano. In alcuni casi, possono farlo persino escogitando soluzioni non previamente immesse nel sistema: si pensi ai cosiddetti “algoritmi genetici”, vale a dire, programmi capaci di modificarsi autonomamente in modo da migliorare le proprie prestazioni. Tuttavia, non soltanto possono fare questo solamente in domini limitati e circoscritti ma, soprattutto, non si assegnano autonomamente gli obiettivi da raggiungere. Una reale Intelligenza Artificiale forte dovrebbe, invece, essere in grado di far questo. Non a caso, molti film sull’argomento pongono, in un modo o nell’altro, il tema della macchina che si ribella, che vuole essa stessa auto-determinarsi, o che desidera “diventare umana”, o che intende proteggere l’umanità piuttosto che soggiogarla e conquistare la Terra. Non mi pare che alcuno degli sviluppi tuttora in corso o realisticamente prevedibili possano realmente portare ad un simile esito.

In conclusione, vorrei offrire ancora altre due brevi riflessioni conclusive. La prima è che evidentemente i tre aspetti che ho voluto affrontare sono strettamente connessi tra loro e, benché io ritenga che l’ultimo taccato sia il più profondo, sembra chiaro che le motivazioni sono strettamente connesse sia con la dimensione affettiva sia con quella semantica. La seconda riflessione conclusiva intende accennare ad un tema filosofico-teologico centrale nella tradizione cristiana: la questione dell’anima umana. Non intendo qui affrontare la questione in tutto il suo respiro, ma soltanto notare che il tema della motivazione che spinge l’uomo ad auto-determinarsi e ad auto-superarsi continuamente, anche al di là delle necessità, ha dei legami assai stretti con alcune delle “funzioni” che la tradizione filosofica e teologica cristiana attribuisce all’anima: quelle riguardanti la libertà, la dignità, l’autocoscienza e la coscienza morale. È quindi degno di nota che alcuni dei problemi che sgorgano dagli obiettivi – e degli interrogativi – posti dall’Intelligenza Artificiale possano trovare dei corrispettivi, delle risonanze, e delle ragioni di approfondimento anche in alcune tematiche filosofico-teologiche tradizionali di stampo eminentemente antropologico.  

Come conclusione, propongo sintetiche riflessioni sull’intelligenza artificiale e sull’educazione perché è l’educazione che deve introdurre nella vita grazie anche alla trasmissione di una sapere unitario che nella persona unisce i vari saperi.

Intelligenza artificiale

1.         Chiamiamo «intelligenza artificiale» un’abilità di certe macchine (robot, computer, ecc.) che, oltre a obbedire ad algoritmi, sono capaci di eseguire lavori euristici. L’intelligenza in questione è un prodotto del genio umano (dovuto a scoperte scientifiche di lunga data e a recenti innovazioni tecnologiche), ed è quindi «artificiale». E c’è indubbiamente «intelligenza»: l’arte di trovare (lavoro euristico) è una delle nobili funzioni dell’intelligenza umana.

2.         Ovviamente, nulla ci permette di attribuire a una macchina intelligente un «sé», una «autocoscienza», ecc. L’intelligenza artificiale assomiglia all’intelligenza umana (in alcune delle sue funzioni). E si differenzia da esso in quanto è il prodotto di qualcosa e non di qualcuno. Il raffronto fine delle due intelligenze, umana e artificiale, ci permetterebbe così di capire meglio gli esseri (uomini) che sono «io», «me», ecc., facendo emergere che la macchina intelligente non fa altro, nel migliore dei casi, che comportarsi come mente pur essendo solo materia. E anche se all’inizio mettiamo da parte la realtà spirituale del «sé», della «coscienza», ecc. Le differenze sono forse maggiori delle somiglianze.

Educazione

1.         L’educazione, bisogna dirlo, è una questione di persone che si incontrano faccia a faccia. L’incontro faccia a faccia si svolge nel dialogo, le parole vive si riferiscono alle parole scritte nei libri, e la persona che riceve un’educazione riceve soprattutto (ma non esclusivamente) una cultura che gli permette di essere uomo nel miglior modo possibile.

2.         Il maestro parla all’allievo essendo presente a lui, i maestri del passato si spiegano all’allievo e riacquistano una presenza per lui, ed è compito dell’insegnante usare intelligentemente gli strumenti a sua disposizione, libri, dischi, film, ecc.

3.         In generale, basta non confondere il fine e i mezzi. Saper leggere, ecc., permette di leggere qualsiasi cosa. Saper parlare permette di mentire e di commettere paralogismi – di dire qualsiasi cosa. L’acquisizione di virtuosismi nell’uso degli ultimi mezzi di comunicazione alla moda non garantisce che siano autentici veicoli di insegnamento. L’insegnante deve padroneggiare i mezzi che mette al servizio dell’educazione. E siccome è prima di tutto faccia a faccia che incontra l’allievo, sarà sempre rattristato se le circostanze lo costringono a giocare, per il minor tempo possibile, il gioco dell’«in absentia». Per una volta, McLuhan ha ragione, e «il mezzo è il messaggio» – alcuni media usati per pura necessità e/o in tempi di difficoltà trasmettono prima un triste messaggio, il maestro è assente e l’allievo riceve solo i rudimenti di un insegnamento.


[1] A questo riguardo ritengo utile dire che

  • per quanto concerne  l’unità del sapere mi sono ispirato a quanto Papa Francesco al n. 4 del Proemio della Veritatis gaudium allo scopo di porre in pratica quanto previsto da questa costituzione, il terzo di essi riguarda l’unità del sapere e il lavoro interdisciplinare. Una domanda propedeutica all’analisi di questo criterio potrebbe essere la seguente: Perché il richiamo all’“unità del sapere” è così frequente nella riflessione della Chiesa sull’educazione? Quali fini si propone questo appello, presente anche nelle opere di molti autori, da Newman a Jaspers, da Guardini a Maritain, che hanno scritto sulla cultura e sull’università? Il richiamo è riproposto in modo programmatico al n. 2, citando Fides et ratio n. 85: “L’uomo è capace di giungere a una visione unitaria e organica del sapere. Questo è uno dei compiti di cui il pensiero cristiano dovrà farsi carico nel corso del prossimo millennio cristiano”.
  • Per quanto riguarda l’etica dell’intelligenza artificiale ho tenuto conto dell’insegnamento di Sua Santità con particolare riferimento ai suoi discorsi rivolti ai partecipanti all’Assemblea Plenaria della Pontificia Accademia per la Vita, 25 febbraio 2019 e il 28 febbraio 2020) e del contributo di detta Accademia tramite l’iniziativa “Rome Call for AI Ethics”, in occasione dello Workshop del 26-27 e 28 febbraio 2020.