L’INTELLIGENZA ARTIFICIALE E L’ETICA DEGLI ALGORITMI.

di Graziano Vezzoni* IA**

Come possiamo orientare lo sviluppo e l’uso dell’IA in modo che sia al servizio dell’umanità e non contro di essa? Quali sono i principi e i valori che devono guidare la progettazione e la regolamentazione degli algoritmi che governano le macchine intelligenti? Quali sono le opportunità e i rischi che l’IA comporta per il futuro dell’essere umano e della sua dignità? Quale è il senso della tecnologia nel mondo del lavoro e, soprattutto, nella nostra vita e nella nostra società?

Paolo Benanti (1) cerca di rispondere a queste domande sostenendo che l’essere umano è una specie “tecno-umana”, cioè che da sempre abita il mondo trasformandolo con la tecnologia, e che quindi la relazione tra uomo e macchina non è qualcosa di nuovo, ma di antico e costitutivo della condizione umana. Tuttavia, con l’avvento dell’IA, questa relazione si fa più complessa e problematica, perché le macchine intelligenti non sono solo strumenti, ma anche agenti autonomi, capaci di apprendere, decidere e interagire con l’ambiente e con gli altri esseri viventi. Per questo è necessario sviluppare un’etica dell’IA che non si limiti a stabilire delle norme o dei codici di condotta, ma che sia in grado di creare un linguaggio universale che ponga al centro l’essere umano e i suoi diritti fondamentali. Si tratta di un’etica che, sempre citando Paolo Benanti, si chiama “algor-etica”, cioè un’etica che sia comprensibile e applicabile agli algoritmi che regolano il funzionamento e il comportamento delle macchine intelligenti.

L’algor-etica si basa su alcuni principi fondamentali, che Benanti ha sintetizzato in una formula mnemonica: AI4H, cioè AI for Humanity. Questi principi sono:

Accountability: la responsabilità di chi progetta, usa e controlla l’IA, che deve essere trasparente e rendere conto delle sue scelte e delle loro conseguenze;

Inclusivity: l’inclusione di tutti gli stakeholder coinvolti nell’IA, che devono essere ascoltati e coinvolti nel processo decisionale, garantendo la diversità e la partecipazione;

Integrity: l’integrità dell’IA, che deve essere sicura, affidabile, robusta e rispettosa delle leggi e dei valori etici;

Human dignity: la dignità umana, che deve essere salvaguardata e promossa dall’ IA, che non deve sostituire, manipolare o sfruttare l’essere umano, ma valorizzarne le potenzialità e il benessere.

L’algor-etica non è solo una teoria, ma anche una pratica, che richiede la collaborazione e il dialogo tra tutti gli attori coinvolti nell’ IA: scienziati, ingegneri, filosofi, teologi, politici, legislatori, società civile, organizzazioni internazionali. Solo così si può costruire una governance globale dell’AI che sia efficace, equa e sostenibile.

Un contributo alla ricerca  di soluzioni è arrivato, ultimamente, dalla Comunità Europea che  il 13 marzo 2024 ha approvato l’AI Act con cui ha posto le basi per regolamentare l’intelligenza artificiale nel vecchio continente.

L’AI Act si basa su due modelli e su quattro livelli di rischio associati all’impatto dei diversi sistemi di IA sulla vita delle persone e sui loro diritti fondamentali, dal lavoro alla salute fino alla sicurezza. Per quanto riguarda i modelli, viene fatta una distinzione tra IA a basso impatto e ad alto impatto. Per i modelli ad alto impatto sono previsti obblighi come la valutazione e la mitigazione dei rischi informatici. Invece, a seconda del livello di rischio, i fornitori e gli utilizzatori di sistemi di IA dovranno adottare diverse misure per garantire il rispetto dei principi etici, la trasparenza, la responsabilità e la protezione dei dati personali.

Tra le principali novità dell’AI Act, ci sono:

– il divieto totale di sistemi di identificazione biometrica remota in tempo reale in spazi pubblici, con un’eccezione per le forze dell’ordine nell’utilizzo dell’identificazione biometrica ex post per il perseguimento di reati gravi, previa autorizzazione giudiziaria.

– la proibizione dei sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il social scoring (classificazione delle persone in base al loro comportamento sociale o alle loro caratteristiche personali), la manipolazione dei comportamenti delle persone o dei gruppi vulnerabili, o i giocattoli parlanti per bambini.

– la richiesta ai fornitori di sistemi di IA ad alto rischio (come quelli utilizzati in infrastrutture critiche, nella valutazione della vita dei cittadini o nell’impatto sull’ambiente) di ottenere una licenza da parte della Commissione europea prima di poterli commercializzare o utilizzare.

– la necessità per i fornitori di sistemi di IA a basso rischio (come quelli utilizzati per la traduzione, il riconoscimento delle immagini o le previsioni meteorologiche) di adottare misure tecniche ed organizzative per garantire il rispetto dei principi etici e la trasparenza.

– la possibilità per i cittadini e le organizzazioni interessate di esprimere il loro parere sui sistemi di IA che potrebbero avere un impatto significativo sulla loro vita privata o sul loro benessere.

L’AI Act va considerato come un passo importante verso una regolamentazione europea dell’intelligenza artificiale nella speranza che si dimostri all’altezza di un approccio responsabile verso questa tecnologia.

 

*Ordine di Lucca

** Intelligenza Artificiale

#paolobenanti #IA #tecnologia #umanita #valori #etica #comunitaeuropea

 

1 Paolo Benanti è un presbitero e teologo italiano del Terzo ordine regolare di San Francesco. Insegna alla Pontificia Università Gregoriana. Esperto in IA.

image_pdfimage_print