Princìpi e sfide dell’etica applicata all’Intelligenza Artificiale

L’Intelligenza Artificiale (IA) rappresenta una delle più grandi rivoluzioni tecnologiche del nostro tempo e il suo impatto si fa sempre più evidente nella nostra vita quotidiana, sia a livello personale che professionale. Sebbene l’inizio della storia dell’IA si colloca intorno agli anni 60, fino a poco tempo è stata impiegata principalmente per l’analisi e l’elaborazione di elementi esistenti: ad esempio, attraverso l’IA era possibile ordinare un feed di notizie in base alle previsioni di coinvolgimento degli utenti.

Questo nuovo tipo di IA generativa (o GenAI), invece, è un processo nuovo che elabora un prompt e lo trasforma in qualcosa di completamente nuovo, come un’immagine, un video o un file audio. L’accelerato sviluppo e l’ampia diffusione di questa tecnologia pongono questioni cruciali riguardo all’etica e all’innovazione. In un mondo in cui l’IA assume un ruolo sempre più centrale, è essenziale esaminare attentamente i suoi impatti, sfide e opportunità, cercando un equilibrio tra progresso e valori umani.

> Leggi anche: Esplorando l’IA generativa: strumenti e applicazioni in ambito IT

L’etica dell’Intelligenza artificiale: lo stato attuale

L’etica dell’intelligenza artificiale è una disciplina che studia le implicazioni economiche, sociali e culturali legate allo sviluppo dei sistemi di intelligenza artificiale (IA).

È diventato evidente che i sistemi basati sull’IA e l’intelligenza artificiale autonoma non possono essere considerati solo come tecnologie, ma rappresentano anche una questione di natura etica, culturale, economica, politica, intellettuale e legale.

Per affrontare questi temi complessi, alcune grandi aziende e istituzione pubbliche si sono già messe all’opera, creando dei comitati ad hoc per la stesura di documenti strategici che regolino l’IA. Nel 2018, SAP e Google hanno introdotto linee guida e policy per i sistemi basati sull’IA. Allo stesso modo Amnesty International, l’Association of Computing Machinery (ACM) e Access Now hanno pubblicato alcuni princìpi e raccomandazioni sull’utilizzo delle tecnologie IA. Anche le linee guida dell’UE (Ethics guidelines for trustworthy AI) sono state scritte con lo scopo di promuovere sistemi di intelligenza artificiale legittimi ed eticamente robusti. 

L’IEEE, ha lanciato le linee guida “Ethically Aligned Design” (EAD), che forniscono un framework per affrontare i valori etici e tecnici dei sistemi di IA, basato su un insieme di principi e raccomandazioni. Il framework comprende otto principi generali per guidare lo sviluppo e l’implementazione dei sistemi basati sull’IA: diritti umani, benessere, data agency, efficienza, trasparenza, responsabilità, consapevolezza dell’uso illecito e competenza. Anche lo stato del Vaticano si è mosso in questa direzione, con la pubblicazione dei princìpi conosciuti come Rome Call for AI Ethics.

Organizzazioni come ISO e IEC si impegnano nello sviluppo di standard: è infatti stato formato un comitato che si concentra sull’intero ecosistema dell’IA, compresi gli aspetti etici e sociali, la standardizzazione, la governance, l’approccio computazionale e l’affidabilità. Gli sforzi delle diverse organizzazioni per plasmare l’etica dell’IA non solo determinano la necessità di linee guida, strumenti, tecniche, ma anche l’interesse di queste organizzazioni nel gestire l’etica in modo coerente con le rispettive priorità.

Questa molteplicità di iniziative e l’impegno delle diverse organizzazioni evidenziano l’importanza di un approccio coordinato nell’affrontare le implicazioni etiche dell’IA. Attraverso la definizione di standard, principi e linee guida comuni, si mira a garantire che lo sviluppo e l’utilizzo dell’IA avvenga nel rispetto dei valori fondamentali, consentendo così una società equa, sostenibile e responsabile.

> Novità: il Parlamento Europeo ha approvato la legge sull’Intelligenza Artificiale 

Principi etici dell'intelligenza artificiale

Il fattore umano nell’IA

Prima di proseguire, è importante definire che cosa si intende per intelligenza artificiale, dal momento che ci concentreremo non solo sulla tecnologia, ma anche sui professionisti che addestrano, mantengono e regolano questi sistemi.
La definizione di Intelligenza artificiale che adotteremo è:

Un sistema che interpreta correttamente e apprende dai dati esterni, al fine di raggiungere risultati specifici attraverso un’adattabilità flessibile.

Il termine sistema non è limitato alla tecnologia: questi sistemi dipendono necessariamente dall’intervento umano per lo sviluppo, l’aggiornamento, la regolazione e la gestione. i sono professionisti che si assicurano che questi sistemi funzionino correttamente, che sviluppano le pipeline di dati necessarie per addestrare gli algoritmi, che gestiscono la sicurezza informatica e così via. Pertanto, è necessario riconoscere che l’Intelligenza Artificiale non è solamente “fatta di tecnologia”, ma è anche un sistema dinamico di persone e attori che collaborano per il suo funzionamento e sviluppo.

> Scopri il corso: Introduzione all’Intelligenza artificiale

I princìpi etici dell’Intelligenza Artificiale

Di seguito discutiamo quelli che sono i quattro princìpi più citati e studiati in merito all’utilizzo e allo sviluppo di sistemi basati sull’intelligenza artificiale: trasparenza, privacy, accountability, fairness (correttezza, giustizia, equità).

  • Trasparenza. La trasparenza delle operazioni è una delle preoccupazioni principali quando si parla di Intelligenza artificiale. Riguarda i come e i perché l’IA prende una decisione specifica. La trasparenza non dovrebbe essere considerata solo nelle operazioni del sistema, ma dovrebbe essere integrata nello sviluppo tecnologico dell’IA per rendere il processo decisionale più trasparente e affidabile.
  • Privacy. Con l’attenzione sempre crescente verso le preoccupazioni legate alla privacy e alla gestione sicura dei dati, l’IA dovrebbe garantire la protezione dei dati degli utenti lungo l’intero ciclo di vita del sistema. Banalmente, il principio di privacy potrebbe essere definito come “il diritto di controllare le proprie informazioni e i propri dati”, ma in ambienti guidati dall’intelligenza artificiale la questione è molto più complessa. Il sistema, infatti, elabora dati dell’utente ed esegue su di essi operazioni di pulizia, unione e interpretazione. L’accesso ai dati in un sistema di IA suscita, quindi, grandi preoccupazioni correlate alla sicurezza e alla trasparenza. 
  • Accountability (responsabilità). L’accountability si concentra specificamente sulle questioni di responsabilità. Si riferisce alla salvaguardia della giustizia attraverso l’attribuzione di responsabilità e la prevenzione del danno. Gli attori coinvolti devono essere responsabili delle decisioni e delle azioni del sistema, al fine di ridurre al minimo eventuali problemi di colpevolezza e hanno il dovere di garantire sia l’accountability tecnica, sia quella sociale, prima e dopo lo sviluppo, l’implementazione e le operazioni del sistema.
  • Fairness (giustizia, correttezza, equità). La discriminazione riscontrata in alcune decisioni dei sistemi AI ha portato ad alcune questioni etiche che influenzano valori comuni, tra cui la dignità e la giustizia. Eliminare bias e pregiudizi dai sistemi di AI potrebbe favorire l’equità sociale e si potrebbe ottenere, ad esempio, rendendo esplicito il processo decisionale, aumentando la trasparenza e identificando gli enti responsabili.

Tuttavia, il concetto di equità sociale viene spesso associato all’esistenza di dati o rappresentazioni “puri” o in ogni caso “neutrali”, che non dipendono in alcun modo dal punto di vista dell’osservatore: questo porta a soluzioni superficiali che non affrontano le cause del problema, spesso strutturali.

Le Sfide etiche dell’IA

Vediamo ora, invece, le sfide più citate da aziende, utenti e studiosi in merito all’utilizzo e allo sviluppo etico di sistemi basati sull’intelligenza artificiale: mancanza di conoscenza in materia di etica, princìpi vaghi, conflitti nella pratica e mancanza di comprensione tecnica.

  • Mancanza di conoscenza etica. Se, da una lato, le aziende che sviluppano sistemi di IA ritengono che le istituzioni governative non siano in grado di fornire esperti in questo settore emergente, dall’altro si sostiene che stabilire un’etica nell’IA non sia possibile senza un approccio politico. Inoltre, il personale tecnico spesso non ha la competenza necessaria per valutare la complessità morale ed etica dei sistemi di intelligenza artificiale.
  • Principi vaghi. Come abbiamo visto, esistono dei princìpi nell’etica dell’IA. Tuttavia, nella pratica, la maggior parte delle le aziende sono restie ad adottare questi principi, proprio a causa della loro natura vaga e soggetta ad interpretazione. Inoltre, non esistono principi etici universalmente concordati e riconosciuti che possano mettere d’accordo tutte le istituzioni su un’unica interpretazione.
  • Conflitti nella pratica. Le aziende, i comitati e i gruppi coinvolti nello sviluppo delle linee guida e dei principi etici dell’IA hanno opinioni differenti riguardo all’implementazione pratica dell’etica dell’IA. Ad esempio, la Camera dei Lord del Regno Unito ha suggerito che i robot non possono operare autonomamente, ma che devono essere guidati da esseri umani. Al contrario, in vari ospedali i robot prendono decisioni autonome nella diagnosi e nelle procedure chirurgiche.
  • Mancanza di comprensione tecnica. Tipicamente, chi scrive le policy non ha competenze tecniche: questo può rendere l’etica dell’IA un’impresa impegnativa nella pratica. Dall’altra parte, chi sviluppa i sistemi di IA ha spesso un interesse limitato ad affrontare gli aspetti etici. La mancanza di comprensione tecnica crea una lacuna tra la progettazione dei sistemi e il pensiero etico, rendendo di fatto molto difficile adattare l’innovazione tecnologica ai princìpi etici.

L’avvento dell’intelligenza artificiale ha il potenziale per ridefinire i concetti etici tradizionali: la comparsa di macchine intelligenti artificiali in grado di eguagliare o addirittura superare le capacità umane rappresenta una sfida significativa. In un mondo in cui macchine intelligenti possono assumere compiti una volta riservati esclusivamente agli esseri umani, è necessario un approccio etico maturo e innovativo per garantire che l’IA venga sviluppata e utilizzata in modo responsabile, rispettando i valori e i principi fondamentali.

Fonti: 

Birhane, A., Ruane, E., Laurent, T., Brown,M.S., Flowers, J., Ventresque, A., & Dancy, C.L. 2022. The Forgotten Margins of AI Ethics. In Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’22). Association for Computing Machinery, New York, NY, USA, 948–958. https://doi.org/10.1145/3531146.3533157

Chan, A. 2023. GPT-3 and InstructGPT: technological dystopianism, utopianism, and “Contextual” perspectives in AI ethics and industry. AI Ethics 3, 53–64. https://doi.org/10.1007/s43681-022-00148-6

T. Hagendorff. 2022. Blind spots in AI ethics. AI Ethics 2, 851–867. https://doi.org/10.1007/s43681-021-00122-8

Khan, A. A., Badshah, S., Liang, P., Waseem, M., Khan, B., Ahmad, A. & Akbar, M. A. (2022, June). Ethics of AI: A systematic literature review of principles and challenges. In Proceedings of the 26th International Conference on Evaluation and Assessment in Software Engineering (pp. 383-392).