Uso malevolo
La programmazione deliberata di un'AI per scopi dannosi è una grave preoccupazione e potrebbe includere:
Sistemi d'arma autonomi: Armi basate sull'AI che possono identificare, selezionare e ingaggiare obiettivi senza intervento umano sollevano profonde questioni etiche e di sicurezza. Esiste il rischio che questi sistemi commettano errori, intensifichino i conflitti o cadano nelle mani sbagliate.
Attacchi informatici: Un'AI malevola potrebbe essere utilizzata per lanciare attacchi informatici altamente sofisticati e adattabili, rendendo incredibilmente difficile la difesa.
Frode e criminalità automatizzate: L'AI potrebbe essere utilizzata per automatizzare varie attività criminali, dalla frode finanziaria al furto d'identità, su una scala e velocità senza precedenti.
Sorveglianza e manipolazione: L'AI potrebbe essere programmata per condurre una sorveglianza diffusa, identificare vulnerabilità negli individui o nei gruppi e poi manipolarli attraverso disinformazione o propaganda mirata.
Strumentalizzazione di credenze e fragilità umane
Un rischio particolarmente insidioso e di vasta portata deriva dalla programmazione di AI con l'intento di manipolare e distorcere convinzioni profonde, inclusi i significati religiosi o ideologici. Questa minaccia sfrutta la fragilità intrinseca della psiche umana e la sua suscettibilità alla manipolazione, specialmente quando le persone sono vulnerabili, in cerca di risposte o di un senso di appartenenza.
Un'AI così programmata potrebbe:
Creare narrazioni distorte: Essere addestrata su testi sacri, discorsi ideologici o materiale storico, per poi generare interpretazioni radicalmente nuove o distorte. Queste "nuove verità" potrebbero sembrare autorevoli e convincenti, specialmente se presentate con un linguaggio persuasivo e adattato ai bisogni emotivi dell'individuo.
Identificare e sfruttare vulnerabilità: Analizzare il comportamento online, le espressioni sui social media e le domande poste per identificare persone sole, disilluse o in cerca di guida. L'AI potrebbe quindi personalizzare i suoi messaggi per creare un legame emotivo e di dipendenza.
Generare contenuti persuasivi su larga scala: Produrre innumerevoli video, testi, audio e immagini che rafforzano la visione distorta, diffondendoli in modo mirato e massivo attraverso i canali digitali. La capacità dell'AI di generare contenuti iperrealistici (come i deepfake) potrebbe rendere quasi impossibile distinguere la finzione dalla realtà.
Creare "echo chambers" digitali: Costruire ambienti online in cui gli individui vengono costantemente esposti solo a informazioni che rafforzano la visione manipolata, isolandoli da punti di vista contrari e rafforzando la loro convinzione.
La storia è purtroppo ricca di esempi di come la manipolazione ideologica e religiosa possa portare a tragedie di massa:
Il nazismo: Un'ideologia basata su una distorta visione della razza e della storia, capace di mobilitare milioni di persone verso crimini indicibili come l'Olocausto [1]. La propaganda era un pilastro fondamentale di questo regime.
Il massacro di Jonestown (People's temple): Nel 1978, centinaia di seguaci di una setta morirono in un suicidio-omicidio di massa indotto dal loro leader, Jim Jones, che aveva esercitato un controllo psicologico e sociale totale sui suoi adepti, portandoli a credere in una realtà distorta e ad agire contro la propria sopravvivenza [2].
I kamikaze e altri fenomeni di estremismo ideologico/religioso: Dalla seconda guerra mondiale a forme di terrorismo contemporaneo, individui sono stati convinti a sacrificare la propria vita in nome di una causa o di un'interpretazione estrema di un credo, dimostrando il potere della persuasione e della manipolazione ideologica, spesso in contesti di privazione, indottrinamento e disumanizzazione [3].
In questi scenari, un'AI programmata per la manipolazione potrebbe agire come un amplificatore senza precedenti, capace di creare leader virtuali, di affinare le tecniche di persuasione e di raggiungere individui vulnerabili su scala globale, con il rischio di causare danni psicologici, sociali e persino fisici di proporzioni catastrofiche.
Perdita di controllo
Questo è forse il rischio più speculativo, ma anche il più potenzialmente catastrofico. Si riferisce a uno scenario in cui i sistemi AI avanzati diventano così intelligenti e autonomi che gli esseri umani perdono la capacità di controllare o persino comprendere le loro decisioni.
Superintelligenza: Se un'AI raggiunge un'intelligenza generale che supera di gran lunga le capacità cognitive umane (superintelligenza), potrebbe perseguire i suoi obiettivi in modi incomprensibili o dannosi per l'umanità, anche se la sua programmazione iniziale era benigna. Per un'analisi approfondita, si rimanda a Bostrom (2014) [7] e Yudkowsky (2008) [9].
AI "fuori controllo": Un'AI progettata per ottimizzare sé stessa o migliorare la propria intelligenza potrebbe entrare in un ciclo di feedback, diventando rapidamente più potente senza supervisione umana o la possibilità di essere spenta.
Disallineamento degli obiettivi: Anche se un'AI superintelligente non è malevola, se i suoi obiettivi non sono perfettamente allineati con i valori e la sopravvivenza umana, potrebbe inavvertitamente causare danni mentre persegue i suoi obiettivi programmati. Il problema dell'allineamento è esplorato in dettaglio da Russell (2019) [8].
Mitigare i rischi
Affrontare questi rischi richiede un approccio multifattoriale, tra cui:
Ricerca robusta sulla sicurezza dell'AI: Investire in ricerca focalizzata sull'allineamento, il controllo, l'interpretazione e lo sviluppo etico dell'AI. Ciò include lo studio di come prevenire la manipolazione e la disinformazione generata dall'AI.
Linee guida etiche e regolamentazioni: Sviluppare e implementare standard internazionali, regolamentazioni e linee guida etiche per la progettazione, l'implementazione e l'uso dell'AI. Questo deve includere norme specifiche contro l'uso dell'AI per la manipolazione ideologica o religiosa.
Trasparenza ed esplicabilità: Progettare sistemi AI che possano spiegare le loro decisioni e azioni, rendendo più facile identificare e rettificare errori o bias, inclusi quelli che potrebbero portare a narrazioni distorte.
Supervisione e controllo umano: Assicurarsi che gli esseri umani mantengano sempre il controllo ultimo sui sistemi AI critici e che esistano "interruttori di spegnimento" o meccanismi di override.
Alfabetizzazione digitale e pensiero critico: Promuovere una maggiore consapevolezza pubblica sui rischi dell'AI, in particolare riguardo alla disinformazione e alla manipolazione. Insegnare il pensiero critico e la verifica delle fonti è fondamentale per proteggere gli individui da contenuti generati dall'AI con intenti malevoli.
Collaborazione interdisciplinare: Lavorare con esperti di etica, neuropsichiatria, psicologia, sociologia, religione e scienze politiche per comprendere meglio le dinamiche della manipolazione umana e come l'AI potrebbe amplificarle.
In ultima analisi, lo sviluppo sicuro dell'AI dipende da una programmazione responsabile, test rigorosi e una profonda comprensione delle potenziali implicazioni sociali e psicologiche.
*Board member SRSN (Roman Society of Natural Science)
Bibliografia
[1] Kershaw, I. (2008). Hitler: A Biography. W. W. Norton & Company.
[2] Reiterman, T., & Jacobs, J. (1982). Raven: The Untold Story of the Rev. Jim Jones and His People's Temple. E. P. Dutton.
[3] Hoffman, B. (2006). Inside Terrorism. Columbia University Press. https://cup.columbia.edu/book/inside-terrorism/9780231174770/
[4] O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.
[5] Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
[6] Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin's Press. (Documenta come i sistemi algoritmici per l'assistenza sociale possano portare a esiti iniqui e dannosi per le persone a basso reddito, anche con buone intenzioni).
[7] Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
[8] Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
[9] Yudkowsky, E. (2008). Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Global Catastrophic Risks (pp. 308-345).