
“La rivoluzione dell’intelligenza artificiale non è solo tecnologica: è una trasformazione antropologica, culturale, sociale.” Così Padre Paolo Benanti, teologo francescano, docente di etica delle tecnologie e presidente della Commissione per l’Intelligenza Artificiale della Presidenza del Consiglio dei Ministri ha aperto “Elogio della scienza”, secondo appuntamento dell’appena concluso ciclo di incontri “Elogio dell’umano. Gentilezza, scienza, politica per un mondo migliore”, promossi da Cesvot – Centro Servizi Volontariato Toscana e Gabinetto Scientifico Letterario G.P. Vieusseux, in collaborazione con Lo Stanzone delle Apparizioni.
Figura di riferimento del Vaticano sul digitale, Benanti offre una visione lucida e critica sullo sviluppo dell’IA, sottolineando l’importanza di un’etica – una “algoretica” – che metta sempre l’uomo al centro.
A dialogare con lui Andrea Simoncini, professore di Diritto Costituzionale e direttore del Dipartimento di Scienze Giuridiche dell’Università di Firenze, esperto di libertà costituzionali, bioetica e nuove tecnologie.
Secondo Benanti, la dottrina sociale della Chiesa ha un ruolo cruciale in questo passaggio storico. Non come dottrina confessionale, ma come sapienza condivisa che offre criteri per abitare la contemporaneità. “Non si tratta di restare ai margini della storia, ma di starci dentro – ha detto – per difendere la giustizia sociale e la dignità della persona.”
L’IA, ha spiegato Benanti, non è un prodotto come un altro. È un sistema pluristratificato: alla base ci sono le unità di calcolo (GPU), sopra le infrastrutture, poi i modelli di linguaggio, come ChatGPT, e infine le applicazioni. Una gerarchia tecnica che ridisegna gli equilibri mondiali, politici e sociali. “Oggi tutto il mondo attende pezzi da Taiwan – ha osservato – segno che l’infrastruttura dell’IA segue modelli di società e di potere molto diversi: in America è privata, in Europa dovrebbe restare un bene comune”.
Ma la questione non è solo tecnica. “La cultura – ha ricordato Benanti citando Umberto Eco – non significa ricordare tutte le nozioni, ma sapere dove andare a cercarle" E decidere cosa dimenticare è un atto politico.” I modelli di IA selezionano contenuti, scartano altri, orientano le narrazioni: non sono neutri. “Il rischio è di hackerare l’umanità: decidere quali valori, visioni e conoscenze debbano sopravvivere. È una nuova forma di colonialismo culturale, mascherata da tecnologia.”
Uno dei punti più delicati toccati da Benanti è quello dell’interfaccia tra uomo e macchina. “L’interfaccia è il punto dove si decide il valore dell’umano. Se costruisco un bisturi, passa controlli di qualità. Ma se costruisco un sistema di IA, no? Serve una qualità etica nell’architettura stessa dei sistemi digitali.”
Benanti ha messo in guardia anche dai rischi geopolitici e democratici. L’IA può diventare uno strumento di persuasione o manipolazione. “La propaganda digitale cambia i comportamenti, senza cambiare le idee. È lo ‘sharp power’: strumenti digitali usati per danneggiare i processi democratici.” Le piattaforme non sono responsabili dei contenuti, ma è urgente che gli Stati sovrani definiscano regole chiare, per non lasciare la società in balia dell’arbitrio tecnologico.
L’IA ha un impatto profondo anche nel mondo del lavoro e sull’educazione. “È una sfida educativa – ha detto – che riguarda soprattutto i giovani e i più fragili. Serve un nuovo patto generazionale, perché oggi un nipote insegna al nonno a usare il tablet: i modelli del passato non bastano più. Serve una riflessione seria su come reagire socialmente, costruendo nuovi enti intermedi e forme di appartenenza collettiva.”
“Abbiamo il dovere – ha concluso Benanti – di ricordare che la persona umana ha diritti che non possono essere sottoposti a calcoli algoritmici. La tecnologia deve essere al servizio dell’uomo, non il contrario.”
Foto di Federico Barattini