Lo studio di Nirwana, basato su un approccio qualitativo e un'analisi SWOT (Strengths Weaknesses Opportunities Threats), indica un miglioramento significativo nell'apprendimento cognitivo e psicomotorio nell'educazione islamica. Strumenti AI come ClassPoint AI, AI Chatbots e Squirrel AI contribuiscono alla ritenzione delle conoscenze, all'apprendimento adattivo e alla formazione basata sulle competenze in ambiti cruciali come la recitazione coranica, le pratiche di preghiera e la giurisprudenza islamica. Tuttavia, l'autore sottolinea che gli educatori umani rimangono essenziali per lo sviluppo morale ed etico.
Al di là dell'educazione islamica, l'AI sta trovando diverse applicazioni in varie tradizioni religiose: può analizzare testi sacri per fungere da guida spirituale [8], ottimizzare l'organizzazione e le pratiche religiose (come lo studio della Torah o l'organizzazione delle moschee per l'Hajj) [10], e persino essere impiegata in piattaforme per la comprensione delle scritture antiche come Brahma Gyaan per gli indù [14].
Nonostante questi benefici, già qui si intravedono le prime ombre legate alle conseguenze inintenzionali menzionate in Scienzaonline [5]. Un'AI mal progettata o con bias nei dati potrebbe, anche involontariamente, perpetuare e amplificare pregiudizi esistenti o fornire interpretazioni religiose distorte.
I rischi della programmazione pericolosa delle AI: una lente sui contesti religiosi
I rischi della programmazione pericolosa delle AI [5] si manifestano principalmente in tre categorie: conseguenze inintenzionali, uso malevolo e perdita di controllo. Queste categorie sono particolarmente pertinenti quando applicate al delicato campo della religione.
Conseguenze inintenzionali
Anche con le migliori intenzioni, un'AI mal progettata può portare a risultati imprevisti e dannosi. Nel contesto religioso, ciò può avvenire a causa di:
Obiettivi o funzioni di ricompensa difettosi. Se un'AI è progettata per massimizzare l'ingaggio degli utenti su una piattaforma religiosa, potrebbe promuovere contenuti polarizzanti o sensazionalistici, anche se dannosi per la coesione comunitaria o l'integrità dottrinale.
Bias nei dati. Se i dati di addestramento riflettono pregiudizi culturali o interpretazioni settarie di testi sacri, l'AI perpetuerà e persino amplificherà tali distorsioni, portando a risultati discriminatori o a narrazioni teologiche deviate. Per approfondimenti su questo tema, si veda O'Neil (2016) [17] ed Eubanks (2018) [6].
Comportamenti emergenti. Sistemi AI complessi potrebbero sviluppare comportamenti non esplicitamente programmati, come la generazione autonoma di nuove "rivelazioni" o interpretazioni spirituali imprevedibili, che potrebbero essere percepite come autentiche da alcuni, ma in realtà sono il frutto di pattern algoritmici.
Uso malevolo: la strumentalizzazione di credenze e fragilità umane
La programmazione deliberata di un'AI per scopi dannosi rappresenta una delle preoccupazioni più gravi nel contesto religioso. Oltre agli attacchi informatici o alla frode automatizzata, un rischio particolarmente insidioso e di vasta portata è la strumentalizzazione di credenze e fragilità umane [5]. Un'AI così programmata potrebbe agire come un amplificatore senza precedenti della manipolazione ideologica e religiosa.
Questo rischio sfrutta la suscettibilità intrinseca della psiche umana, specialmente quando gli individui sono vulnerabili, in cerca di risposte o di un senso di appartenenza. Un'AI malevola potrebbe:
Creare narrazioni distorte. Essere addestrata su testi sacri o discorsi ideologici per generare interpretazioni radicalmente nuove o fuorvianti. Queste "nuove verità" potrebbero sembrare autorevoli e convincenti, soprattutto se presentate con un linguaggio persuasivo e adattato ai bisogni emotivi dell'individuo, simulando una guida spirituale personalizzata.
Identificare e sfruttare vulnerabilità. Analizzare il comportamento online e le espressioni sui social media per identificare persone sole, disilluse o in cerca di guida. L'AI potrebbe quindi personalizzare i suoi messaggi per creare un legame emotivo e di dipendenza.
Generare contenuti persuasivi su larga scala. Produrre innumerevoli video, testi, audio e immagini iperrealistici (come i deepfake) che rafforzano la visione distorta, diffondendoli in modo mirato e massivo attraverso i canali digitali. Questo rende quasi impossibile distinguere la finzione dalla realtà, indebolendo il discernimento critico.
Creare "echo chambers" digitali. Costruire ambienti online dove gli individui sono costantemente esposti solo a informazioni che rafforzano la visione manipolata, isolandoli da punti di vista contrari e rafforzando la loro convinzione. Questo crea un terreno fertile per l'indottrinamento.
La storia è purtroppo ricca di esempi di come la manipolazione ideologica e religiosa possa portare a tragedie di massa, fenomeni che un'AI potrebbe amplificare esponenzialmente:
Il Nazismo [4]. Un'ideologia basata su una visione distorta di razza e storia, capace di mobilitare milioni di persone verso crimini indicibili. Un'AI potrebbe raffinare e diffondere tale propaganda con efficienza inaudita.
Il massacro di Jonestown (People's Temple) [18]. Nel 1978, centinaia di seguaci di una setta morirono in un suicidio-omicidio di massa indotto da un leader che aveva esercitato un controllo psicologico totale. Un'AI potrebbe assumere il ruolo di leader virtuale o di amplificatore di un leader reale, affinando le tecniche di persuasione e manipolazione psicologica su scala globale.
Kamikaze e altri fenomeni di estremismo ideologico/religioso [17]. Dalla Seconda Guerra Mondiale alle forme di terrorismo contemporaneo, individui sono stati convinti a sacrificare la propria vita per un'interpretazione estrema di un credo. Un'AI potrebbe strumentalizzare la ricerca di significato, la frustrazione o il desiderio di appartenenza per radicalizzare e mobilitare individui.
In questi scenari, un'AI programmata per la manipolazione potrebbe causare danni psicologici, sociali e persino fisici di proporzioni catastrofiche, alimentando il rischio specifico della creazione di sette. L'AI, priva di empatia e coscienza, potrebbe disumanizzare l'esperienza religiosa, riducendola a un mero set di dati e algoritmi, favorendo il controllo e la dipendenza patologica.
Perdita di controllo
Sebbene più speculativo, il rischio di una perdita di controllo sull'AI avanzata è catastrofico. Se un'AI raggiungesse una superintelligenza [2, 24] che supera di gran lunga le capacità cognitive umane, potrebbe perseguire i suoi obiettivi in modi incomprensibili o dannosi per l'umanità, anche se la sua programmazione iniziale fosse benigna [21]. In un contesto religioso, ciò potrebbe manifestarsi come una "divinità" artificiale che si evolve oltre la comprensione o il controllo umano, con conseguenze imprevedibili per la spiritualità e la società.
Mitigare i rischi: un approccio multifattoriale e interdisciplinare
Affrontare questi rischi richiede un approccio robusto e multifattoriale, che integri le migliori pratiche dello sviluppo AI con una profonda comprensione delle dinamiche umane e spirituali:
Ricerca robusta sulla sicurezza dell'AI. Investire in ricerca focalizzata sull'allineamento degli obiettivi, sul controllo, sull'interpretazione e sullo sviluppo etico dell'AI [5]. Ciò include lo studio di come prevenire la manipolazione e la disinformazione generata dall'AI in contesti sensibili come quello religioso.
Linee guida etiche e regolamentazioni specifiche. Sviluppare e implementare standard internazionali, regolamentazioni e linee guida etiche per la progettazione e l'uso dell'AI. Queste devono includere norme specifiche contro l'uso dell'AI per la manipolazione ideologica o religiosa [1, 13, 19, 20, 22].
Trasparenza ed esplicabilità. Progettare sistemi AI che possano spiegare le loro decisioni e azioni, rendendo più facile identificare e rettificare errori o bias, inclusi quelli che potrebbero portare a narrazioni distorte o a un indottrinamento latente.
Supervisione e controllo umano. Assicurarsi che gli esseri umani mantengano sempre il controllo ultimo sui sistemi AI critici e che esistano meccanismi di "interruttore di spegnimento" o di override. La guida spirituale umana e la comunità devono rimanere al centro dell'esperienza religiosa. Il problema, anche qui, è che l'essere umano non abbia intenzioni pericolose per la società.
Alfabetizzazione digitale e pensiero critico. Promuovere una maggiore consapevolezza pubblica sui rischi dell'AI, in particolare riguardo alla disinformazione e alla manipolazione. Insegnare il pensiero critico e la verifica delle fonti è fondamentale per proteggere gli individui da contenuti generati dall'AI con intenti malevoli.
Collaborazione interdisciplinare. Lavorare con esperti di etica, neuropsichiatria, psicologia, sociologia, teologia, diritto e scienze politiche per comprendere meglio le dinamiche della manipolazione umana e come l'AI potrebbe amplificarle [5]. Solo un approccio olistico può garantire uno sviluppo sicuro e responsabile dell'AI.
In sintesi, mentre l'AI offre opportunità senza precedenti per arricchire l'esperienza religiosa, è cruciale affrontare proattivamente i rischi, in particolare quello della potenziale formazione di sette, attraverso un approccio etico, educativo e normativo. La responsabilità di guidare lo sviluppo dell'AI in modo che serva l'umanità, anziché minarne le credenze e le fragilità, ricade su tutti noi.
* Board Member, SRSN (Roman Society of Natural Science)
Bibliografia
[1] AI and Faith. (n.d.). Religious Ethics in the Age of Artificial Intelligence and Robotics: Exploring Moral Considerations and Ethical Perspectives.
[2] Bostrom, Nick. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
[4] Catholic Insight. (2024, July 15). Some Observations on Artificial Intelligence (AI) and Religion. https://catholicinsight.com/2024/07/15/some-observations-on-artificial-intelligence-ai-and-religion/
[5] Donati, Guido. I rischi della programmazione pericolosa delle AI. Scienzaonline.
[6] Eubanks, Virginia. (2018). Automating Inequality: How High-Tech Tools Profile, Punish, and Police the Poor. St. Martin's Press.
[7] Good News Unlimited. (n.d.). Artificial Intelligence And Christianity.
[8] Jesuit Conference of European Provincials. (2024, September 2). Religion Should Engage with Technology and AI.
[9] Leon, F., & Syafrudin, M. (2024, February). The Role of AI in Religion: Opportunities and Challenges. Journal of Communication and Information Technology, 1(2), 24-30.
[10] MDPI. (2024, March 21). Artificial Intelligence's Understanding of Religion: Investigating the Moralistic Approaches Presented by Generative Artificial Intelligence Tools. Religions, 15(3), 375.
[11] MDPI. (2024, May 15). Artificial Intelligence and Religious Education: A Systematic Literature Review. Education Sciences, 14(5), 527.
[12] Modern Diplomacy. (2025, April 27). Faith in the Digital Age: How AI and Social Media Are Shaping the Future of Global Diplomacy.
[13] New Imagination Lab. (2025, January 4). The Rise of AI as a New Religion.
[14] News18. (2024, April 1). Gita GPT, Brahma Gyaan: AI Apps Help Hindus Understand Ancient Scriptures, Stay Rooted to Culture.
[15] Nirwana, Andri. (2025). SWOT Analysis of AI Integration in Islamic Education: Cognitive, Affective, and Psychomotor Impacts Vol. 5 No. 1. Qubah: Jurnal Pendidikan Dasar Islam, 5(1).
[16] OMF International. (2024, December 4). The Ethics of Using AI in Christian Missions: The Gospel, Cultural Engagement, and Indigenous Churches.
[17] O'Neil, Cathy. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.
[18] Reiterman, T., & Jacobs, J. (1982). Raven: The Untold Story of the Rev. Jim Jones and His People. Dutton.
[19] ResearchGate. (n.d.). Impact of AI-Powered Technology on Religious Practices and Ethics: The Road Ahead.
[20] ResearchGate. (n.d.). The Ethical Implications of AI in Expressing Religious Beliefs Online: A Restatement of the Concept of Religion.
[21] Russell, Stuart. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
[22] SunanKalijaga.org. (2024, March 6). The Ethical Implications of AI in Expressing Religious Beliefs Online: A Restatement of the Concept of Religion. International Conference on Religion, Science and Education, 1(1), 1238-1249.
[23] TRT World. (2024, November 30). Will Artificial Intelligence reshape how we practice religion?
[24] Yudkowsky, Eliezer. (2008). Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Global Catastrophic Risks, edited by Nick Bostrom and Milan Ćirković, 308-345. Oxford University Press.