Giorgio de Chirico, il pensatore, 1969
Introduzione
Nel corso degli ultimi anni, l’intelligenza artificiale (IA) ha guadagnato una centralità senza precedenti, diventando un tema di crescente rilevanza non solo nel mondo della tecnologia, ma anche in ambito politico, economico e sociale. Vista la rapidità con cui l’IA si sta evolvendo e la crescente preoccupazione riguardo alle sue implicazioni, ci sembra essenziale approfondire il tema della sua regolamentazione giuridica. L’Unione Europea, consapevole dell’importanza di garantire un equilibrio tra innovazione e protezione dei diritti fondamentali, ha adottato il Regolamento sull’Intelligenza Artificiale (AI Act), approvato dal Consiglio dell’Unione Europea il 21 maggio 2024. Questo provvedimento mira a classificare i sistemi di IA in base ai livelli di rischio, imponendo requisiti specifici per il loro utilizzo, in particolare nei settori ad alto rischio, come la sanità, la giustizia e la sicurezza pubblica.
A livello nazionale, numerosi Stati hanno introdotto regolamenti mirati per disciplinare l’impiego dell’IA in settori cruciali come la sanità e la giustizia. Rimanendo nel contesto italiano, ad esempio, il Piano Nazionale di Ripresa e Resilienza (PNRR), approvato il 13 febbraio 2021, prevede l’integrazione di soluzioni basate sull’IA nella pubblica amministrazione e nel sistema giudiziario, con l’obiettivo di accelerare i procedimenti legali e ottimizzare l’efficienza dei servizi pubblici. Inoltre, nel maggio 2024, è stata presentata al Senato una proposta di legge sull’IA che definisce principi generali per lo sviluppo e l’impiego dei sistemi di IA, ponendo particolare attenzione ai settori sanitario e della ricerca scientifica. La proposta include anche la creazione di autorità nazionali competenti, in linea con l’AI Act dell’Unione Europea.
IA e Diritto Canonico
L’integrazione dell’Intelligenza Artificiale (IA) nel contesto del diritto canonico solleva questioni di natura etica, giuridica e pastorale. Questo nostro articolo esamina le “Linee Guida in materia di intelligenza artificiale” emanate dalla Pontificia Commissione per lo Stato della Città del Vaticano il 16 dicembre 2024 e la nota “Antiqua et Nova” pubblicata il 28 gennaio 2025 dai Dicasteri per la Dottrina della Fede e per la Cultura e l’Educazione. L’obiettivo che ci siamo posti è quello di valutare le potenzialità, i limiti e le implicazioni dell’uso dell’IA nel diritto canonico, identificando ambiti di applicazione appropriati e quelli in cui il suo utilizzo risulta inadeguato. L’Intelligenza Artificiale sicuramente rappresenta una delle innovazioni tecnologiche più significative del nostro tempo, con applicazioni che spaziano dalla medicina all’economia, fino al settore legale. Tuttavia nel contesto canonico, l’adozione dell’IA pone interrogativi sulla sua compatibilità con i principi del diritto canonico e sulla sua capacità di rispettare la dignità umana e la missione pastorale della Chiesa.
Il 14 giugno 2024, durante il G7 a Borgo Egnazia, Papa Francesco ha affrontato il tema dell’intelligenza artificiale (IA), evidenziandone la natura ambivalente: da un lato, suscita entusiasmo per le opportunità che offre; dall’altro, genera timori per le possibili conseguenze. Ha sottolineato che tutti provano queste emozioni contrastanti: entusiasmo per i progressi potenziali e paura per i rischi connessi al suo utilizzo. Descrivendo l’IA come uno “strumento affascinante e tremendo”, il Pontefice ha lanciato un appello per l’elaborazione di una “sana politica” che orienti l’IA verso la costruzione del bene comune e di un futuro migliore. [1]
Le Linee Guida Vaticane sull’Intelligenza Artificiale
In risposta a questo appello, il Governatorato dello Stato della Città del Vaticano ha prodotto, il 16 dicembre 2024, il Decreto n. DCCII, che introduce le “Linee guida in materia di intelligenza artificiale” [2], entrate in vigore il 1° gennaio 2025. È la prima volta che il Vaticano regolamenta l’IA, accogliendo l’invito di Papa Francesco con l’obiettivo di gestire il cambiamento tecnologico nel rispetto della centralità della persona e della giustizia sociale, sottolineando l’importanza dell’etica e della trasparenza.
Le Linee guida, articolate in tre capi e quindici articoli, sottolineano l’importanza di un approccio antropocentrico, che ponga l’essere umano al centro dello sviluppo e dell’applicazione dell’IA, garantendo che tali tecnologie servano il bene comune e rispettino la dignità della persona. Tra i principi chiave emergono: la trasparenza, i sistemi di IA devono operare in modo comprensibile e le loro decisioni devono essere spiegabili agli utenti; la responsabilità, deve essere chiaro chi è responsabile delle decisioni prese dall’IA, assicurando che vi sia sempre una supervisione umana; la non discriminazione, l’IA non deve perpetuare o amplificare pregiudizi o discriminazioni esistenti nella società.; la sicurezza, i sistemi devono essere progettati per essere sicuri e resilienti a eventuali abusi o malfunzionamenti.
La Nota “Antiqua et Nova”
Il 28 gennaio 2025, i Dicasteri per la Dottrina della Fede e per la Cultura e l’Educazione hanno pubblicato la Nota “Antiqua et Nova” [3], un documento che esplora il rapporto tra intelligenza artificiale e intelligenza umana. La Nota, articolata in sei sezioni e centodiciassette numeri, evidenzia che l’IA, pur essendo una straordinaria conquista tecnologica, rimane uno strumento privo di coscienza e discernimento morale. Essa esegue compiti basati su dati quantitativi e logica computazionale, ma non possiede la capacità di comprendere semanticamente la realtà o di instaurare autentiche relazioni.
L’IA dovrebbe dunque essere impiegata come supporto all’intelligenza umana, senza mai rimpiazzarla. Il documento avverte sui rischi di una visione eccessivamente idealizzata della tecnologia, mettendo in guardia contro la tendenza a conferirle caratteristiche proprie dell’essere umano. Pur riconoscendone il potenziale e il contributo all’avanzamento delle conoscenze e delle competenze, si sottolinea il pericolo di una dipendenza eccessiva dalla tecnologia, che potrebbe impoverire la qualità delle interazioni umane e ridurre il valore del rapporto diretto tra le persone. Inoltre, la Nota evidenzia i rischi legati alla concentrazione del potere tecnologico nelle mani di poche aziende, che potrebbe portare a forme di controllo sociale e manipolazione delle coscienze. Il documento, che è stato approvato dal Pontefice il 14 gennaio 2025, invita a un uso responsabile dell’IA, che promuova la dignità umana e il bene comune, evitando applicazioni che possano ridurre l’uomo a mero oggetto o strumento.
Possibili applicazioni dell’IA nel Diritto Canonico
Alla luce di queste considerazioni, riteniamo che l’intelligenza artificiale possa trovare utili applicazioni anche nell’ambito del diritto canonico, offrendo un valido supporto in diversi settori. In primo luogo, potrebbe essere impiegata nella gestione documentale e archivistica, favorendo una digitalizzazione intelligente del vasto patrimonio normativo e giurisprudenziale. Oltre al Codice di Diritto Canonico, infatti, occorre considerare l’ampia mole di sentenze dei singoli tribunali diocesani e interdiocesani, delle sentenze rotali, dei documenti pontifici, conciliari e curiali: l’IA consentirebbe di automatizzare processi come l’archiviazione, la catalogazione e la ricerca dei documenti, semplificando e velocizzando il reperimento delle fonti.
Inoltre, l’IA potrebbe rivelarsi particolarmente utile nell’analisi giurisprudenziale, offrendo strumenti per l’esame dei precedenti e facilitando l’accesso a decisioni già emesse, così da rendere la ricerca più rapida, mirata e accurata. Attraverso l’individuazione di analogie tra cause passate e nuove, l’IA potrebbe suggerire riferimenti giurisprudenziali rilevanti, agevolando l’attività dei giudici e dei canonisti. Tutto ciò potrebbe essere realizzato nel pieno rispetto della normativa vigente in materia di protezione dei dati sensibili e nella scrupolosa osservanza delle disposizioni canoniche, tra cui, a titolo esemplificativo ma non esaustivo, il can. 220 e il can. 1455, così da garantire la riservatezza, la buona fama e l’integrità delle informazioni trattate.
Limiti e incompatibilità dell’IA nel diritto canonico
Nonostante le numerose potenzialità, esistono ambiti del diritto canonico in cui l’uso dell’intelligenza artificiale risulta inappropriato o fortemente limitato.
L’interpretazione della legge e la decisione nei processi canonici richiedono discernimento morale, comprensione del contesto e sensibilità umana, qualità che l’IA, per sua natura, non possiede. Per questo motivo, tali attività devono rimanere prerogativa esclusiva dei giudici. Uno degli aspetti più critici dell’impiego dell’IA nel diritto canonico riguarda la sua incompatibilità con il principio della certezza morale, che il giudice è tenuto a raggiungere prima di emettere una sentenza, come stabilito dal can. 1608 CIC. Il giudice non può, infatti, basarsi su probabilità o decisioni automatizzate, ma deve arrivare a una convinzione certa attraverso un processo di discernimento personale ex actis et probatis. Come insegnava San Giovanni Paolo II ex actis, poiché si deve presumere che gli atti siano fonte di verità, ed ex probatis perché egli non può limitarsi a dar credito alle sole affermazioni; anzi deve aver presente che, durante l’istruttoria, la verità oggettiva possa essere stata offuscata da ombre diverse per diverse cause, come la dimenticanza di alcuni fatti, la loro soggettiva interpretazione, la trascuratezza e talvolta il dolo e la frode. È necessario che il giudice agisca con senso critico. Compito arduo, perché gli errori possono essere molti, mentre invece la verità è una sola [4]. Poiché l’IA opera su basi statistiche e probabilistiche, non può garantire il raggiungimento della certezza morale richiesta, rischiando di influenzare il giudice con suggerimenti automatici che potrebbero indebolire il suo ruolo di valutatore consapevole.
Il diritto canonico attribuisce grande rilevanza alla responsabilità personale e alla capacità di giudizio morale di chi è coinvolto nei procedimenti giudiziari. Affidare ad un sistema artificiale decisioni che implicano una profonda comprensione delle circostanze individuali solleva questioni etiche e giuridiche. Inoltre, la mancanza di coscienza ed empatia nell’IA costituisce un ostacolo insormontabile per il suo impiego in ambiti che richiedono sensibilità e capacità di valutazione soggettiva. Quanto sopra esposto ci porta a considerare una probabile ed eventuale lesione del diritto di difesa, in quanto l’impiego dell’IA nei procedimenti giudiziari canonici potrebbe compromettere le garanzie processuali tutelate dai cann. 1481-1490 CIC.
Conclusione
L’intelligenza artificiale, se impiegata in modo appropriato, può rappresentare un valido strumento per migliorare l’efficienza nel diritto canonico nelle ipotesi sopra esposte, senza tuttavia sostituire il ruolo imprescindibile degli operatori del diritto. Il suo utilizzo deve essere attentamente regolamentato, affinché sia sempre in linea con la dottrina e l’etica ecclesiale, evitando che possa ridurre la responsabilità personale e il discernimento umano nei procedimenti giuridici e pastorali. Per questo motivo, l’integrazione dell’IA nei processi giuridici ecclesiastici deve essere gestita con prudenza, per prevenire il rischio che essa comprometta la giustizia o la tutela dei diritti fondamentali delle parti coinvolte.
I procedimenti ecclesiastici non si limitano a mere questioni procedurali, ma coinvolgono profondi aspetti pastorali e spirituali che esigono un approccio umano e personalizzato. L’ascolto attento, la comprensione empatica e il discernimento sono elementi essenziali nell’amministrazione della giustizia canonica, qualità che l’IA, per sua natura, non può replicare. Di conseguenza, il suo impiego nei contesti giudiziari ecclesiastici risulta inappropriato e presenta criticità significative, sia sotto il profilo giuridico che etico.
Note
[1] Per l’intervista completa consultare https://www.vaticannews.va/it/papa/news/2024-06/papa-discorso-integrale-g7-puglia-intelligenza-artificiale.html
[2] Pontificia commissione per lo Stato Città del Vaticano, Decreto della Pontificia Commissione per lo Stato Città del Vaticano recante “Linee Guida in materia di intelligenza artificiale”, 16 dicembre 2024, n. DCCII.
[3] Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Educazione, Antiqua et Nova. Nota sul rapporto tra intelligenza artificiale e intelligenza umana, in https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_it.html
[4] Ioannes Paulus PP. II, Allocutio: Ad Tribunalis Sacrae Romanae Rotae Decanum, Praelatos Auditores, Officiales et Advocatos, novo Litibus iudicandis ineunte anno: de veritate iustitiae matre, in AAS, LXXII (1980), p. 175.
“Cum caritate animato et iustitia ordinato, ius vivit!”
(S. Giovanni Paolo II)
©RIPRODUZIONE RISERVATA