«Si tratta di sapere se è effettivamente possibile avere di nuovo elezioni libere ed eque. Così com’è, non penso che lo sia. E quindi la mia domanda per loro è: è questo quello che volete? È così che volete che la Storia vi ricordi? Come ancelle dell’autoritarismo che è in aumento in tutto il mondo?»[1]. Queste sono le domande che Carole Cadwalladr, giornalista del quotidiano britannico Guardian, rivolge agli «dei della Silicon Valley» in un famoso «TED talk», che ha raggiunto quasi quattro milioni di visualizzazioni.

La vicenda in esame era quella della Cambridge Analytica, la società pubblicitaria che, utilizzando dati estratti da milioni di profili Facebook, aveva condizionato le elezioni presidenziali degli Usa nel 2017 e il referendum sulla Brexit del 2018. Il Guardian e il New York Times hanno accusato il social network di aver reso possibile la raccolta dei dati, pur non avendola attivamente procurata, e poi di averla sottovalutata o nascosta. Facebook ha incolpato a sua volta Cambridge Analytica di aver sottratto le informazioni in modo illecito. La vicenda ha portato alla ribalta la potenza nascosta nella messe di dati raccolti in rete: elaborandola con opportuni algoritmi, si è in grado di condizionare le decisioni personali e di ottenere effetti impressionanti in ambito sociale e politico.

Per citare un esempio più vicino ai nostri giorni, si pensi all’utilizzo in Cina e in Corea del Sud di applicazioni che, attraverso la geo­localizzazione, consentono di tracciare i percorsi e gli incontri delle persone[2]. Se da una parte la loro introduzione è motivata dallo stato di eccezione per impedire la diffusione del contagio da Covid-19, dall’altra viene così legittimata una sorveglianza sociale di precisione e capillarità inedite. Siamo davanti a una situazione che favorisce l’accettazione sociale delle nuove tecnologie, col rischio di occultare il tipo di controllo sui corpi che viene esercitato in una logica biopolitica[3].

La manipolazione della libertà che viene evidenziata da questi episodi sbarra la strada a ogni ingenua interpretazione delle nuove tecnologie digitali, come se fossero spontaneamente positive o almeno neutrali. Senza contare che questa è solo una parte della questione. Infatti, le nuove tecnologie non si sviluppano in modo isolato e settoriale, ma in stretta connessione reciproca. Per questo vengono definite «emergenti e convergenti»[4]. Raggruppate nell’acronimo NBIC, ne fanno parte lo studio sistematico della materia a un ordine di grandezza «nanometrico»[5], la biologia (inclusa la genetica), l’informatica e le scienze cognitive. Se, per un verso, computer e algoritmi consentono di elaborare e di progettare interventi finora non immaginabili sul patrimonio ereditario, per altro verso, la ricerca sui sistemi computazionali si ispira ai risultati delle neuroscienze: pensiamo alle «reti neurali», al machine learning o all’idea di impiegare modelli biologici, come il Dna, per conservare dati.

Papa Francesco ha sottolineato la profondità di questa trasformazione nella lettera Humana communitas, inviata alla Pontificia Accademia per la Vita (PAV) in occasione del suo 25° anniversario[6]. Nella stessa lettera egli sollecitava la PAV a studiare in modo più organico la questione. In questa linea si collocano i due ultimi Convegni annuali dell’Accademia, in cui si è affrontato, rispettivamente, il tema della roboetica[7] e quello dell’intelligenza artificiale (IA)[8].

In questo articolo ci soffermeremo anzitutto sul discorso che il Santo Padre ha rivolto ai partecipanti all’ultimo appuntamento, mettendone in evidenza alcuni snodi principali[9]. Nella seconda parte, esamineremo l’importante momento pubblico che ha segnato la conclusione del Convegno: la presentazione di un documento per la regolamentazione etica del mondo digitale, firmato da esponenti di primo piano nell’ambito delle imprese e delle istituzioni, internazionali ed ecclesiali.

Universo digitale e cambiamento d’epoca

«La “galassia digitale”, e in particolare la cosiddetta “intelligenza artificiale”, si trova proprio al cuore del cambiamento d’epoca che stiamo attraversando. L’innovazione digitale, infatti, tocca tutti gli aspetti della vita, sia personali sia sociali. Essa incide sul nostro modo di comprendere il mondo e anche noi stessi» (DP). Fin da subito Francesco scongiura una lettura ingenua, che troppo di frequente interpreta le nuove tecnologie in modo riduttivo. Non è sufficiente infatti considerarle solo in base alla capacità di svolgere singoli compiti in modo più rapido ed efficiente, per elogiarne la positività: pensiamo alla potenza computazionale in continua crescita e alla precisione di alcune diagnosi che gli algoritmi sono in grado di definire, o addirittura di anticipare, con più accuratezza e precocità dei medici.

Questo è vero, ma, per la loro pervasività e diffusione in quasi tutti gli ambiti della nostra vita, esse assumono la fisionomia non di strumenti limitati a singoli settori, quanto piuttosto di forze che passano ormai inosservate, amalgamate con il nostro mondo abituale. Esse sono in grado di determinare vere e proprie forme di controllo e orientamento delle abitudini mentali e relazionali, e non solo di potenziare funzioni cognitive e operative.

Ne derivano cambiamenti profondi. Le nuove tecnologie giungono «fino al punto di rendere labili confini finora considerati ben distinguibili: tra materia inorganica e organica, tra reale e virtuale, tra identità stabili ed eventi in continua relazione tra loro» (DP). Divengono sempre più difficili da distinguere gli artefatti dalle real­tà naturali (si pensi all’ingegnerizzazione degli organismi viventi o alla commistione fra tessuti biologici e componenti elettronici), e sempre più si mettono in rilievo le relazioni (tra le variabili e nelle reti), più che la sussistenza isolata delle cose[10].

Anche la comprensione che l’essere umano ha di se stesso pone l’accento sulla centralità delle relazioni e dell’informazione: l’organismo opera sulla base di informazioni ed è connesso con altri organismi analoghi, immersi in un ambiente condiviso con altri agenti informazionali, naturali e artificiali. È quello che si indica con il termine «infosfera»[11]. Nella realtà in cui siamo immersi, in cui le connessioni si moltiplicano, non ha più neanche senso porre la domanda se si è online o offline. Sarebbe più corretto dire che siamo onlife, un neologismo che alcuni pensatori utilizzano per esprimere l’inestricabile intreccio tra vita e universo digitale[12]. E le interazioni si infittiscono non soltanto tra gli esseri umani e i dispositivi, ma anche tra i dispositivi stessi, sovente senza che noi neanche ce ne accorgiamo, come avviene nel cosiddetto «Internet delle cose».

Implicazioni personali e ricadute sociali

Vengono così a modificarsi il nostro paesaggio intellettuale e il nostro immaginario, che si popolano di nuove rappresentazioni, coinvolgendo ciascuno fin nelle più intime fibre del suo radicamento corporeo. Cambia il nostro modo di vivere lo spazio e il tempo: le distanze si contraggono, mettendoci a portata di mano oggetti e notizie lontani; le operazioni si accelerano, permettendoci di ottenere rapidamente quanto cerchiamo. Con la riduzione delle distanze, tende a scomparire la percezione del limite, e quindi della differenza[13]. La nostra comprensione della geografia si modifica, perché dal territorio che abitiamo ci connettiamo ad altre regioni. La nostra elaborazione della storia si trasforma, perché il patrimonio di dati che accumuliamo non è più il risultato di quanto sopravvive nello scorrere dei secoli, ma di quanto viene digitalizzato. La memoria umana è un continuo andirivieni tra ricordare e dimenticare, mentre le macchine conservano tutto ciò che vi depositiamo, a meno che i dati non siano cancellati. Dimenticare o cancellare: due modalità molto diverse di elaborare il passato, che hanno un forte impatto nel definire chi siamo e nello strutturare la memoria collettiva[14]. Si rende così necessario interrogarsi su come concepire tempo, spazio e coscienza[15].

Se poi dalla prospettiva del singolo passiamo alla dimensione socioeconomica, il rischio da considerarsi con maggiore attenzione è che i «consumatori» vengano subordinati a interessi di pochi soggetti privati. Le tracce digitali lasciate in rete dai – per lo più ignari – cibernauti vengono accumulate e conservate in gigantesche banche. I dati vengono esaminati da algoritmi che consentono non soltanto di conoscere e prevedere azioni e sentimenti di chi è analizzato, ma anche di manipolarne decisioni e comportamenti, come abbiamo visto nel caso di Cambridge Analytica[16]. L’immagine dei dati come nuovo petrolio non rende l’idea, anche se mette bene in luce l’enorme profitto che se ne può trarre vendendoli sul mercato della previsione dei comportamenti. Essi sono piuttosto «come l’aria che respiriamo»[17], dice l’attuale presidente di Microsoft.

«Questa asimmetria, per cui alcuni pochi sanno tutto di noi, mentre noi non sappiamo nulla di loro, conduce anche alla smobilitazione del pensiero critico e dell’esercizio consapevole della libertà. Le disuguaglianze si amplificano a dismisura, la conoscenza e la ricchezza si accumulano nelle mani di pochi, con grave rischio per le società democratiche» (DP). Occorre fare attenzione a queste distorsioni, che offuscano le enormi potenzialità che le nuove tecnologie rappresentano per favorire la partecipazione e la condivisione di quei beni di cui la famiglia umana dispone e a cui tutti devono poter accedere.

La nozione di vita

Fra le nozioni che richiedono di essere ripensate, papa Francesco ne evoca due che sono di particolare rilievo per la Pontificia Accademia per la Vita. La prima è quella di «vita umana». Ancora una volta siamo di fronte non solo a nuove possibilità di intervenire sugli organismi viventi, ma a nuovi modi di interpretarli. Esplorando i processi biologici con strumenti più sofisticati e scendendo a ordini di grandezza più minuti ne emergono inedite riconfigurazioni. Per esempio, la nozione di «mente estesa» o il ruolo riconosciuto ai microrganismi ospiti negli animali per la loro espressione genetica e per la selezione ambientale mostrano come i confini che individuano le entità viventi siano meno netti di quanto eravamo abituati a ritenere[18].

Per ripensare la nozione di vita nel contesto della cultura contemporanea occorre gettare ponti tra le scienze empiriche sperimentali e i saperi umanistici, articolando la «costitutiva dimensione biologica» della vita umana con la «sua irriducibile qualità biografica. La correlazione e l’integrazione fra la vita vivente e la vita vissuta non possono essere rimosse a vantaggio di un semplice calcolo ideologico delle prestazioni funzionali» (DP).

Fra i vari punti di ancoraggio offerti dalla ricerca contemporanea per un approfondimento in questo senso, vale la pena menzionare l’attenzione che scienziati e pensatori di varie impostazioni stanno riservando al processo della generazione[19]. È un tema che ha evidente rilievo in ordine alla comprensione della vita e della corporeità, e che trova il suo naturale prolungamento nella relazione che si instaura tra madre e figlio, fin dal tempo della gestazione. Una prospettiva che qui non possiamo certo sviluppare, ma che dobbiamo accontentarci di menzionare. Come del resto possiamo solo accennare all’impostazione neurofenomenologica nelle scienze cognitive, che è pure un luogo di convergenza tra indagine della fisiologia ed esperienza vissuta[20].

Responsabilità umana e molteplicità degli attori

Un ruolo cruciale nella riflessione sollecitata dalle trasformazioni descritte è svolto dalla nozione di «agire personale». Occorre infatti da un lato distinguere la qualità umana dell’agire rispetto a macchine dotate di capacità operative e, dall’altro, tener conto delle interazioni molteplici in cui si realizza il giudizio morale sul bene da compiere. Livelli crescenti di responsabilità e di corresponsabilità chiedono una più accurata comprensione del nuovo fenomeno. Anche solo il lessico di cui disponiamo sembra insufficiente per rendere conto dei differenti tipi di azione. Si tentano approssimazioni con termini tipo «forme distribuite dell’agire», «responsabilità diffusa» o «sistemi multi-agente»[21]. Papa Francesco lo mette in evidenza con una frase al contempo sintetica e incisiva: «L’atto personale viene a trovarsi al punto di convergenza tra l’apporto propriamente umano e il calcolo automatico, cosicché risulta sempre più complesso comprenderne l’oggetto, prevederne gli effetti, definirne le responsabilità» (DP).

L’agire morale esprime decisioni elaborate in consapevole e libera responsabilità. Gli esseri umani sono dotati di coscienza e libero arbitrio, e sono in grado di stabilire relazioni interpersonali nella logica della reciprocità, per cui l’altra persona è riconosciuta a sua volta come dotata di coscienza e di libertà. Sebbene le macchine possano interagire con altre entità, gli esseri umani hanno la caratteristica distintiva di mettere in discussione i criteri e i princìpi secondo cui elaborano le decisioni, in quanto capaci di riflessione critica e di processi decisionali eticamente qualificati. L’intenzionalità propria dell’agire morale può quindi essere attribuita in senso stretto solo agli esseri umani. Questo non esclude che anche il comportamento delle macchine possa essere valutato sulla base dei valori che realizza o disattende. Ma esso deriva da una programmazione esterna, anche se non totalmente prevedibile nei suoi esiti.

Allo stesso modo, anche l’«autonomia» in senso morale può essere attribuita solo agli esseri umani, a causa dei processi cognitivi ed emotivi sottostanti[22]. Essa infatti implica consapevolezza e conoscenza di sé, che rendono possibile una decisione responsabile sulla base di ragioni e di valori[23]. Occorre quindi fare attenzione quando si impiega questo termine in riferimento alle macchine: spesso non è chiaro che lo si intende con un significato analogo, dimenticando che le macchine sono calcolanti più che pensanti e operano selezioni più che decisioni.

Per un’etica «transdisciplinare» e attenta alla complessità

Si rende quindi necessario sviluppare una riflessione che non si accontenti di giustapporre i risultati dei saperi scientifici e umanistici, ma che realizzi una vera e propria elaborazione transdisciplinare, su cui del resto papa Francesco insiste[24]. Nella linea di quanto sopra esposto, possiamo valorizzare il contributo che la scienza contemporanea ci fornisce grazie all’approccio sistemico. Tale prospettiva insiste in particolare sulle relazioni, mettendone in luce tre livelli.

Anzitutto, all’interno dell’insieme di elementi da cui ogni sistema è costituito. È questo il livello in cui emergono qualità nuove, non previamente deducibili dalle proprietà che ogni singolo componente possiede allo stato isolato. Si pensi alle sinergie tra i singoli organi che appartengono ai differenti apparati del corpo umano. In secondo luogo, sul piano dei rapporti che diversi sistemi intrattengono tra loro, per cui non è possibile considerarli indipendentemente dalle loro reciproche interazioni. Nel nostro esempio, ogni apparato interagisce con gli altri e con l’intero organismo: pensiamo alle influenze tra il sistema nervoso e quello endocrino, o al ruolo del corpo nel suo complesso perché il cervello possa svolgere le sue funzioni cognitive. Infine, nei rapporti con il soggetto conoscente, che delimita il perimetro del sistema da prendere in considerazione. È da tali scelte conoscitive che ogni sistema sempre dipende. Cioè, è frutto di una scelta attribuire i vasi polmonari all’apparato cardio-circolatorio o a quello respiratorio.

Nel campo etico, l’approccio sistemico non si propone tanto come un metodo specifico o originale, ma piuttosto, ispirandosi a una strumentazione concettuale che si è mostrata feconda per diverse scienze, indica l’esigenza di un discernimento che tenga conto della complessità umana e del mondo odierno, in cui agenti naturali e artefatti sono «iperconnessi». Potremmo considerarlo come una declinazione specifica del principio per cui il tutto, composto dalle parti in cui si articola, è comunque superiore a esse[25].

In relazione alle nuove tecnologie, il compito che si profila è di individuare un modello di monitoraggio in cui diverse discipline e competenze contribuiscono a una riflessione etica che consideri l’intero percorso di elaborazione degli apparati tecnologici: ricerca, progettazione, produzione, distribuzione, utilizzo individuale e collettivo. Le ricadute prevedibili dei singoli momenti del ciclo produttivo vanno esaminate da diversi punti di vista, verificando cosa comportino per i rapporti che si stabiliscono tra gli esseri umani e le macchine.

In tutto il processo di sviluppo dei dispositivi tecnologici, pertanto, sono identificabili aree specifiche di responsabilità, in cui anche le aziende sono coinvolte e sono chiamate a partecipare all’elaborazione condivisa. «Nella comune ricerca di questi obiettivi, i principi della Dottrina Sociale della Chiesa offrono un contributo decisivo: dignità della persona, giustizia, sussidiarietà e solidarietà. Essi esprimono l’impegno di mettersi al servizio di ogni persona nella sua integralità e di tutte le persone, senza discriminazioni né esclusioni. Ma la complessità del mondo tecnologico ci chiede una elaborazione etica più articolata, per rendere questo impegno real­mente incisivo» (DP). Stiamo iniziando a intravedere una nuova disciplina, che riguarda «lo sviluppo etico degli algoritmi» o più semplicemente «algoretica»[26].

Non è quindi sufficiente focalizzarsi solo sulla responsabilità e sull’educazione del fruitore finale per un impiego corretto dei sistemi digitali. Così come non basta affidarsi alla sensibilità morale di chi fa ricerca e progetta algoritmi. Occorre invece lavorare perché i corpi sociali intermedi assicurino rappresentanza alla sensibilità etica dei fruitori, in tutte le fasi del processo. Un esempio interessante in questa linea ci è dato da «Ingegneri senza frontiere». L’organizzazione, sorella minore di «Medici senza frontiere», ha proposto un manifesto perché gli ingegneri, dato il ruolo strategico che svolgono in questo ambito, assumano responsabilità anche per le dimensioni sociali del loro lavoro. Essa propone, tra l’altro, di integrare nel percorso universitario discipline che introducano diverse prospettive e aiutino a comprendere le implicazioni degli artefatti tecnici nelle relazioni sociali e nella sfera politico-culturale[27].

Significato della «Call»

L’ultimo giorno del Convegno è stato dedicato alla presentazione pubblica della Rome Call for AI Ethics[28]. Il testo è stato elaborato da un gruppo di esperti provenienti da discipline e da mondi differenti. L’obiettivo dell’operazione è di aggregare le forze per affrontare la profonda metamorfosi che il nostro mondo sta vivendo, sostenendo un approccio etico all’IA e promuovendo l’assunzione di responsabilità da parte di organizzazioni, governi e istituzioni. Sono cambiamenti che mettono in discussione la stessa qualità umana delle nostre vite, come persone e come società. Solo un’ampia collaborazione di diversi soggetti può tentare di creare un futuro in cui l’innovazione digitale e lo sviluppo tecnologico servano la creatività e il genio umani, e non la loro graduale sostituzione.

È bene soffermarsi sul genere letterario di questo documento, che non costituisce né una dichiarazione congiunta, né un accordo, né un trattato. Una Call non ha una vita propria, se non nell’interazione dei soggetti che vi partecipano. I partner riconoscono alcune difficoltà che ciascuno incontra nell’attività che svolge e si impegnano a farvi fronte in termini collaborativi. Il testo quindi non è proprietà di qualcuno in particolare, ma di tutti coloro che vi si impegnano. Non c’è un soggetto che esercita un controllo sugli altri o incaricato di farne rispettare i contenuti, ma ognuno costituisce una faccia di uno stesso poliedro, a pari livello fra tutti.

Può anche accadere che non tutti siano già allineati sulle raccomandazioni formulate nella Call, ma chi la firma si assume pubblicamente la responsabilità di lavorare perché esse si attuino effettivamente nella propria attività concreta, anche se si trattasse di «pagarne i costi». Così è nato l’appello a riconoscere e ad assumere la responsabilità che proviene dalla portata e dalla pericolosità delle opzioni rese possibili dalle nuove tecnologie digitali. Su questa strada comune si è messa in cammino anche la Pontificia Accademia per la Vita, offrendo, secondo il monito del Concilio Vaticano II (Gaudium et spes, n. 3), il contributo della tradizione e dell’esperienza della Chiesa nella ricerca condivisa di quanto è autenticamente umano e può promuovere una maggiore giustizia nel mondo di oggi.

Principali linee di forza

La stesura del testo ha richiesto un esercizio di reciproco ascolto e di individuazione di riferimenti comuni, anche nella ricerca di un linguaggio comprensibile e condivisibile per tutti. I diritti umani sono stati di aiuto, sia quanto a contenuti, sia come esempio di convergenza possibile a un livello intermedio. Essi infatti, pur non essendo indipendenti da presupposti fondativi sul piano antropologico, consentono tuttavia di trovare un terreno su cui possono convergere visioni del mondo di diversa matrice culturale e religiosa. E, d’altra parte, non entrano nella formulazione di norme giuridiche troppo dettagliate e particolari[29].

Il documento si sviluppa secondo tre grandi direttrici. La prima è quella etica, che richiama il quadro di valori fondamentali sotteso alla Dichiarazione universale dei diritti umani. Vi si afferma la necessità di tale quadro per ogni sviluppo tecnologico eticamente valido, sottolineando in particolare l’inclusione, la contemporanea attenzione al bene dell’intera umanità e di ogni singolo essere umano, il rispetto e la salvaguardia del Pianeta, «nostra casa comune e condivisa».

La seconda direttrice mette in luce l’importanza dell’educazione per le giovani generazioni, che sarà segnata profondamente dalla disponibilità delle nuove risorse tecnologiche, a cui va garantito un accesso senza disuguaglianze. Data la velocità della trasformazione, occorrerà anche un’educazione permanente, soprattutto per chi rischia di essere lasciato indietro. La formazione dovrà includere pure l’attenzione alla coscienza e alle motivazioni che la rendono capace di impegnarsi per il bene della comunità, anche a scapito del proprio interesse.

L’ultima direttrice è quella del diritto, in cui emerge l’esigenza di tradurre in regolamentazioni effettive i princìpi enunciati e di renderli incisivi attraverso un approccio etico by design, cioè che accompagni ogni passaggio del ciclo produttivo delle tecnologie, fin dall’inizio[30].

Dalle premesse ai princìpi

Per realizzare gli obiettivi formulati e dare qualche indicazione più precisa su come operare in modo etico nell’ambito dell’IA, sono stati messi a fuoco alcuni princìpi: 1) Trasparenza: in linea di massima, i sistemi di intelligenza artificiale devono essere spiegabili; 2) Inclusione: i bisogni di tutti gli esseri umani devono essere presi in considerazione in modo tale che ognuno possa trarne beneficio e a tutti gli individui vengano offerte le migliori condizioni possibili per esprimersi e svilupparsi; 3) Responsabilità: coloro che progettano e mettono in opera queste tecnologie devono procedere con responsabilità e trasparenza; 4) Imparzialità: evitare di creare o di agire secondo pregiudizi, salvaguardando così l’equità e la dignità umana; 5) Affidabilità: i sistemi di intelligenza artificiale devono essere in grado di funzionare in modo attendibile; 6) Sicurezza e «privacy»: i sistemi di intelligenza artificiale devono funzionare in modo che gli utenti siano tutelati e rispettati nella loro riservatezza.

Questi princìpi sono elementi fondamentali di una buona innovazione. È interessante notare come essi siano in sintonia con i documenti elaborati da vari organismi dell’Unione Europea: non era scontato che potessero risultare condivisibili anche da grandi imprese del mondo statunitense, che ne hanno elogiato la validità in diversi contesti[31].

L’evento si è concluso con la firma del documento da parte del presidente della Pontificia Accademia per la vita, mons. Vincenzo Paglia; del presidente di Microsoft, Bradford Lee Smith; del vicepresidente esecutivo IBM, John Kelly III; del direttore generale della Fao, Qu Dongyu; e del ministro del governo italiano per l’innovazione tecnologica e la digitalizzazione, Paola Pisano. Era presente anche il presidente del Parlamento europeo, David Sassoli, il quale ha espresso l’interesse delle istituzioni europee per il processo inaugurato, sottolineando l’importanza di una collaborazione internazionale degli sponsor della Call. Come si vede dalla varietà dei ruoli e dei profili dei firmatari, sono coinvolti differenti portatori di interessi, provenienti dal mondo produttivo, istituzionale, politico, scientifico e accademico. Ognuno nel suo specifico ruolo si impegna a diffondere la Call e ad ampliare la rete dei firmatari, condividendo così sia la ricerca per una migliore comprensione dei cambiamenti in atto, sia l’assunzione delle responsabilità che ne derivano e che richiedono sempre nuove integrazioni.

* * *

Notiamo, in conclusione, un possibile parallelismo tra le origini della bioetica[32] – quindi un neologismo che oggi designa un campo di indagine abbastanza chiaramente definito – e l’idea di un’etica per le tecnologie digitali, proposta con il neologismo «algoretica»[33]. Nei due casi la riflessione etica viene provocata da coloro che operano sul campo e sono al centro dei processi di trasformazione delle loro discipline: genetisti e medici allora, scienziati dei dati e dei computer ora. Ma lo scenario si arricchisce oggi di un ulteriore elemento. Come sopra evidenziato, biotecnologia e informatica non sono più separate, ma procedono in stretta connessione. Convergendo tra loro, e con altre tecnologie, moltiplicano i loro effetti ed emergono nuove prospettive, teoriche e pratiche. In questo contesto storico, la bioetica può entrare in dialogo e in sinergia con l’etica per gli algoritmi: un nuovo «ponte verso il futuro».

Padre Carlo Casalone

Pubblicato su La Civiltà Cattolica( CLICCA QUI )

[1].      «Lo scandalo di Cambridge Analytica», in Forward 16 (2019/4) 26, dal titolo (R)evolution, in https://issuu.com/pensiero/docs/fwd-16-revolution. Cfr B. Kaiser, La dittatura dei dati, Milano, HarperCollins, 2019.

[2].      Cfr https://tg24.sky.it/tecnologia/software-app/2020/02/12/coronavirus-app-contagio.html/; https://www.wired.it/mobile/app/2020/02/12/app-­coronavirus-avmap-covid-19/https://www.internazionale.it/notizie/claudia­-­
grisanti/­2020/03/18/lezione-corea-sud-covid-19/ Altri esempi si possono ritrovare in G. Cucci, «Per un umanesimo digitale», in Civ. Catt. 2020 I 27-40.

[3].      Cfr D. Fassin, Le vite ineguali. Quanto vale un essere umano, Milano, Feltrinelli, 2019.

[4].      Cfr L. Caenazzo – L. Mariani – R. Pegoraro (eds), Convergence of New Emerging Technologies. Ethical Challenges and New Responsibilities, Padova, Piccin, 2017.

[5].      Il prefisso «nano» indica una misura corrispondente a 10-9 metri, cioè un milionesimo di millimetro.

[6].      Per una presentazione del documento, cfr C. Casalone, «“Humana communitas”. La vita umana nella trama delle relazioni», in Civ. Catt. 2019 I 209-221.

[7].      Gli atti del Convegno si possono trovare in V. Paglia – R. Pegoraro (eds), Robo-ethics. Humans, Machines and Health, Roma, PAV, 2020.

[8].      Il titolo del Convegno è stato Il «buon» algoritmo? Intelligenza artificiale: etica, diritto, salute (26-28 febbraio 2020). Per una definizione dell’IA, cfr Joint Research Centre, Defining Artificial Intelligence, European Union 2020; A. Spadaro – P. Twomey, «Intelligenza artificiale e giustizia sociale», in Civ. Catt. 2020 I 121-131.

[9].      Cfr Francesco, Discorso ai Partecipanti alla Plenaria della Pontificia Accademia per la Vita (28 febbraio 2020), in w2.vatican.va/content/francesco/it/speeches/­2020/february/documents/papa-francesco_20200228_accademia-perlavita.­html/ D’ora in poi abbreviato nelle citazioni con DP.

[10].    Cfr L. Floridi (ed.), The Onlife Manifesto. Being Human in a Hyperconnected Era, Heidelberg – New York – Dortrecht – London, SpringerOpen, 2015, ed. Kindle, pos. 243. Un esito per certi versi analogo a quello cui conduce la rivoluzione quantistica a proposito delle variabili fisiche e delle loro reciproche relazioni, con particolare riferimento al tempo: cfr C. Rovelli, L’ ordine del tempo, Milano, Adelphi, 2017.

[11].    L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano, Raffaello Cortina, 2017.

[12].    Cfr L. Floridi (ed.), The Onlife Manifesto…, cit.

[13].    Cfr B.-C. Han, L’ espulsione dell’Altro, Milano, nottetempo, 2017.

[14].    Cfr M. Doueihi, Qu’est-ce que le numérique?, Paris, Presses Universitaires de France, 2013.

[15].    Cfr C. Accoto, Il mondo dato. Cinque brevi lezioni di filosofia digitale, Milano, Egea, 2017, 81-103.

[16].    Cfr S. Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Roma, LUISS University Press, 2019.

[17].    B. Smith – C. A. Browne, Tools and Weapons. The Promise and the Peril of the Digital Age, New York (NY), Penguin Press, 2019, XIV.

[18].    Cfr Y. Laouris, «Reengineering and Reinventing both Democracy and the Concept of Life in the Digital Era», in L. Floridi (ed.), Onlife Manifesto…, cit., pos. 2756-3214; S. F. Gilbert, «A symbiotic View of Life: We Have Never Been Individuals», in The Quarterly Review of Biology 87 (2012/4) 325-341; S. A. Kauffman, A World Beyond Physics. The Emergence and Evolution of Life, Oxford, Oxford University Press, 2019.

[19].    Cfr S. Zucal, Filosofia della nascita, Brescia, Morcelliana, 2017, 235. «In questo inizio […] il bios e il pathos si istruiscono reciprocamente […]. L’archetipo della grammatica generativa in cui l’essere e l’amore nascono insieme e si dicono insieme si costituisce qui: nella struttura di un’esperienza relazionale dell’essere generato che è biologica e preriflessiva, ma nello stesso tempo personalizzante e intelligente» (P. Sequeri, La fede e la giustizia degli affetti, Siena, Cantagalli, 2019, 153). Cfr anche L. Irigaray, All’inizio, lei era, Torino, Bollati Boringhieri, 2013; M. Gensabella Furnari, Il corpo della madre. Per una bioetica della maternità, Soveria Mannelli (Cz), Rubbettino, 2018.

[20].    Cfr F. Ceragioli, Identità e intersoggettività. Il contributo delle neuroscienze, in P. Sequeri (ed.), La tecnica e il senso. Oltre l’uomo?, Milano, Glossa, 2015, 19-38, qui 36-38; G. Bonaccorso, Critica della ragione impura. Per un confronto tra teologia e scienza, Assisi (Pg), Cittadella, 2016, 69-101; 191-210; L. Vantini, Il sé esposto. Teologia e neuroscienze in chiave fenomenologica, ivi, 2017, 23-104.

[21].    Cfr L. Floridi, La quarta rivoluzione, cit., 165-235; G. Cucci, «Uomo e robot: la relazione ideale?», in Civ. Catt. 2020 I 427-438.

[22].    Cfr Commission of the Bishops’ Conferences of the European Union, Robotization of Life. Ethics in view of new challenges, 2019, 3 s, in www.comece.eu/comece-publishes-reflection-on-robotisation-of-life

[23].    European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and «Autonomous» Systems, 2018, in https://op.europa.eu/en/publication-detail/-/publication/dfebe62e-4ce9-11e8-be1d-01aa75ed71a1/language-en/format-PDF/source-78120382

[24].    Cfr Francesco, Veritatis gaudium, 4c.

[25].    Cfr M.-J. Thiel, «Le défi d’une éthique systémique pour la théologie», in Revue des Sciences Religieuses 74 (2000/1) 92-113.

[26].    Cfr P. Benanti, Oracoli. Tra algoretica e algocrazia, Bologna, Luca Sossella, 2018.

[27].    Cfr Ingénieurs sans frontières, Manifeste pour une formation citoyenne des ingénieur·e·s, in www.isf-france.org/node/1211

[28].    Cfr https://romecall.org

[29].    Cfr M. Ladikas – S. Chaturvedi – Y. Zhao – D. Stemerding (eds), Science and Technology Governance and Ethics. A Global Perspective from Europe, India and China, Heidelberg, Springer, 2015; J. Tham – K. M. Kwan – A. Garcia (eds), Religious Perspectives on Bioethics and Human Rights, Springer, Switzerland, 2017.

[30].    Cfr Gruppo di esperti della Commissione Europea, Orientamenti etici per una IA affidabile, European Union 2018; European Commission, Artificial Intelligence. A European Perspective, European Union 2018.

[31].    Cfr in particolare B. Smith, Tools and Weapons, cit., 131-150, dove il presidente di Microsoft esamina la General Data Protection Regulation, adottata dall’Unione Europea nel 2016, e ne valuta molto positivamente gli effetti, anche per la conversione tecnologica cui ha condotto le aziende.

[32].    Il termine fu lanciato da un testo che ebbe grande fortuna: V. R. Potter, Bioetics: Bridge to the future, Englewood Cliffs (NJ), Prentice Hall, 1971.

[33].    Cfr A. Pessina, «Algor-etica: un neologismo per un progetto ambizioso», in https://cattolicanews.it/pessina-algor-etica-un-neologismo-per-un-progetto-ambizioso