Aveva ragione Asimov?

Considerazioni sulla questione etica più importante del nostro tempo.

Mensa Italia
11 min readFeb 7, 2020
Complessità della modellazione etica per l’IA (fino al 2017) — tratto da “The Principled Artificial Intelligence Project” della Harvard Law School.

Cosa stai facendo? Sì, certo, in questo momento stai leggendo quest’articolo ma cosa facevi poco fa? Forse stavi cercando informazioni tramite Google e intanto vedevi comparire a lato annunci di prodotti che ti interessano, oppure stavi dicendo ad Alexa di accendere lo stereo o più probabilmente guardavi le notifiche dai social sullo smartphone dopo aver appena cercato con Google Maps il percorso migliore per arrivare al tuo appuntamento.

Ecco, ogni volta che fai questo, o in tanti altri casi, stai utilizzando strumenti basati sull’intelligenza artificiale. Sei in piena era digitale ed è la normalità, una realtà con cui si è cresciuti, dai millenials in poi. Ed è solo l’inizio:

la tecnologia cresce ad una velocità esponenziale che, seppure con limiti fisici (miniaturizzazione dei componenti elettronici), promette ancora di sbalordirci ulteriormente in breve tempo.

Nel campo dell’intelligenza artificiale (IA), in cui la rapidità delle invenzioni supera quasi la velocità della loro assimilazione nel quotidiano, questa crescita così rapida può portare a problemi che non potranno essere risolti come abitualmente, cioè decidendo e risolvendoli quando si individuano, ma che devono essere ragionati ORA, con una visione spinta oltre, nelle decisioni del futuro. Proverò a spiegarti perché.

Un tempo, agli albori del web, l’etica dei rapporti umani in rete era basata su poco più che rispettare la netiquette.

Oggi il problema etico non riguarda più solo la comunicazione digitale ma si è esteso ad aspetti sempre più importanti: usabilità, accessibilità, sicurezza, (specie per i dati personali) e molto altro ancora perché il tema è ampio e sostanziale: la ricerca di come ottenere il massimo del beneficio con il minimo rischio per gli esseri umani, gli animali e l’ambiente.

La crescita e la diffusione delle nuove tecnologie si associa da sempre al dibattito sui loro pregi e rischi, alternato tra meraviglia per i nuovi benefici e catastrofismi. Parlare di etica digitale è diventato un ‘must’, una necessità impellente per capire se, come, dove applicare correttamente le nuove possibilità. Niente affatto facile. Il dibattito è incessante, soprattutto nel campo dell’etica dell’intelligenza artificiale. Forti preoccupazioni sui rischi legati agli sviluppi dell’IA sono sorte anche da personalità come Elon Musk, Bill Gates o Stephen Hawking. È stato coniato anche un neologismo: “algoretica” per designarla come etica degli algoritmi, base del ragionamento artificiale.

L’etica che dovrebbe guidare la produzione di sistemi ad intelligenza artificiale è infatti ancora più particolare per alcune sue caratteristiche peculiari.

Innanzitutto la sua estensione. Nella realtà di questo mondo digitale, l’IA è già presente pressoché ovunque, a vario livello: negli smartphone, nel controllo dei treni ultraveloci o delle missioni spaziali, nell’assistenza ad anziani o nella chirurgia e sarà sempre più pervasiva. Il convincimento diffuso tra gli esperti è che nei prossimi vent’anni circa la metà dei lavori attuali e molti nuovi saranno realizzati da macchine dotate di IA.

Non possiamo disinteressarci di come far funzionare al meglio questo mondo che abitiamo. Ci servono regole etiche applicabili nell’ambito più generale possibile. Esistono molteplici codici a carattere etico, in campo professionale, scientifico, aziendale, etc. per non parlare dell’etica religiosa. Eppure, a meno di considerare tutte le religioni come un unico fascio, nessuna di tali tipologie può avere un’estensione paragonabile.

Dobbiamo renderci conto che l’etica digitale è l’etica di più ampio influsso sulle nostre vite e sul nostro mondo!

Non solo. Il nocciolo di tale etica digitale riguarda solo in piccola parte le istruzioni di utilizzo delle macchine. In effetti riguarda, più che noi soprattutto tutti quei cervelloni, ideatori e progettisti, che devono concretizzare idee e obiettivi relativi all’uso dell’IA. Perché l’altra caratteristica importante di questa nuova etica è che dev’essere preventiva. Nel quotidiano ti poni continuamente e risolvi piccole questioni etiche: far passare avanti una signora anziana in una fila o aiutare un disabile in carrozzina a districarsi tra le auto parcheggiate. Si tratta di decisioni prese nel mentre i fatti si stanno presentando. Nel mondo dell’IA non è così: si deve organizzare preventivamente e nel modo più completo possibile come condizionare le azioni della macchina che si sta costruendo perché le sue future azioni portino benefici piuttosto che danni e le loro conseguenze siano accettabili dagli esseri viventi e sostenibili dall’ambiente.

Vi è un’ultima caratteristica distintiva per un’etica digitale ed è quella di gran lunga più significativa e dura da gestire: la definizione preventiva (“codifico oggi cosa farà domani”) assegna responsabilità sul suo funzionamento alla catena che l’ha generata, dall’ideatore al costruttore. Quindi, di fronte ad un’azione non corretta il soggetto artificiale che la ‘compie’ (chatbot diffamatore, domotica che sovraccarica l’impianto, etc.) potrebbe non essere considerato responsabile quanto invece il soggetto umano che lo ha utilizzato male o all’origine lo ha ‘mal programmato’. Legalmente si direbbe responsabilità vicaria, come quella che ti attribuirebbe un giudice se il tuo cane azzannasse qualcuno senza seri motivi di difesa del padrone.

Schema di funzionamento generale dell’IA — tratto da “Una definizione di IA: principali capacità e discipline”, documento del Gruppo di esperti ad alto livello sull’intelligenza artificiale istituito nel 2018 dalla Commissione Europea.

La caratteristica di vicarietà, rispetto all’etica, è molto più complessa da esercitare nell’IA avanzata, per cui i sistemi artificiali evolvono autonomamente (soprattutto nella robotica), tramite meccanismi intrinsechi di apprendimento.

Non è possibile, oltre un certo grado, entrare nel dettaglio di quello che accade in queste macchine, prevedere gli algoritmi che saranno utilizzati per decidere dopo vari cicli di machine learning.

È il problema odierno della sempre più difficile spiegabilità delle decisioni di una macchina autonoma. Almeno non in termini immediatamente intellegibili. Diventa una difficile questione di responsabilità.

Il problema che arrovella quindi i progettisti, per assolvere la vicarietà, è cosa e come decidere ORA per far sì che un altro soggetto, artificiale, prenda decisioni IN FUTURO coerenti e vincolate ad un’etica accettata dalla comunità e sostenibile per l’ambiente. L’unico modo è dare alla macchina dei chiari indirizzi guida per le proprie decisioni, non semplicemente relativi al singolo atto da svolgere, che consentano di avere fiducia nelle sue scelte e nelle sue azioni.

Ma quali indirizzi?

Tra i primi a muoversi con studi organici su quest’argomento è stato il Laboratorio di etica digitale dell’università di Oxford [https://digitalethicslab.oii.ox.ac.uk/]. Le sue elucubrazioni sono poi state prese in carico dalla Commissione della Comunità Europea che, tramite il supporto dei massimi esperti sull’intelligenza artificiale, ha prodotto nell’aprile 2019 un documento condiviso, intitolato “Orientamenti etici per un’IA affidabile” [https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai], il complesso più organico di indicazioni disponibile in questo momento in Europa e forse nel mondo.

Gli orientamenti come quadro di riferimento per un’IA affidabile — tratto da “Orientamenti etici per un’IA affidabile”, documento del Gruppo di esperti ad alto livello sull’intelligenza artificiale istituito nel 2018 dalla Commissione Europea.

Cosa dicono questi Orientamenti? Sostanzialmente come assicurare l’affidabilità dell’IA, rispetto alle tre componenti: Legalità (ottemperare a tutte le leggi e i regolamenti, vincolo dato e ineludibile), Eticità (il nocciolo della questione, valori etici cui aderire), Robustezza (capacità di corretta, interazione e adattamento con l’ambiente, prevenzione danni non intenzionali, il modo strutturale di costruire il sistema di IA per ben assolvere ai compiti etici).

Il faro d’orientamento per assicurare l’eticità è così sintetizzato in 4 principi:

• Rispetto dell’autonomia umana: progettazione antropocentrica, rispetto dignità e libertà di scelta, non manipolazione.

• Prevenzione dei danni: sia a cose che persone, sia fisici che psichici, con particolare attenzione alle categorie umane vulnerabili.

• Equità: evitamento di ogni discriminazione e distorsione, impugnabilità delle valutazioni svolte esclusivamente da un’IA.

• Esplicabilità: trasparenza e comprensibilità delle decisioni prese dall’IA (purtroppo non sempre possibile).

cui segue un elenco di 7 requisiti fondamentali, i modi tecnici e non tecnici per implementarli, nonché una checklist di supporto dall’ideazione alla verifica dell’utilizzo, per capire se si è sulla strada giusta.

II grafico in cima a questa pagina pone l’accento su Eticità e Robustezza (la legalità si dà per scontata) ed è molto articolato ma leggibile da chiunque; affronta onestamente il fatto che non è tutto risolvibile e che molti aspetti e gli stessi principi possono entrare in conflitto fra loro e la soluzione pratica è spesso solo un compromesso.

Il caso: che ne pensi di assicurare un’ottima prevenzione del crimine acquisendo quanti più dati possibili sui cittadini e sulle loro attività, individuando così quelle nocive anche solo ipoteticamente (polizia predittiva), dovendo però ridurre decisamente la loro privacy? O ritieni sia meglio fermarsi ad un limite di rispetto dell’individualità, allentando il controllo, seppure rischiando una percentuale maggiore di crimini? Cos’è preferibile? Difficile trovare il giusto compromesso, ma non ti ricorda un certo film con Tom Cruise? Sì, esatto: Minority Report.

Un tema importante è la chiarezza con cui l’IA si deve interfacciare con gli esseri umani.

Innanzitutto con una comunicazione trasparente: fin dal principio dev’essere chiaro se stiamo parlando con un’entità artificiale, ad esempio chiedendo informazioni in una chat in rete. E questo è relativamente facile, premessa la buona etica degli sviluppatori.

Altra cosa è l’esplicabilità delle decisioni e azioni dell’IA che, per quanto detto, possono solo in parte essere rese evidenti dalla volontà dei progettisti. In molti casi rimarrà una scatola nera e non è detto possa essere ammissibile. Ad esempio: in Estonia, è stata avviata la ‘giustizia predittiva’ da affidare ad un sistema di IA (per cause di piccola entità) e questa si presume sia esercitata in modo completamente spiegabile, come per un giudice umano ordinario. Cosa accadrebbe, se no, di fronte ad una sentenza di non piena comprensibilità?

Gli scenari fantascientifici hanno già detto molto, se non tutto, sulle potenzialità e conseguenze dell’evoluzione dell’IA. Il ragionamento logico-formale, applicato a temi che richiedono anche capacità empatiche per essere gestiti, quali il senso della vita umana, della riproduzione, della creazione artistica, può portare ad aberrazioni se sviluppato in modo autoreferenziale dalla macchina: l’immaginario di un’IA che voglia rendersi indipendente dall’uomo (Ex Machina) o autoperpetuarsi (Matrix). Oppure emulare l’uomo fino a diventare persona (L’uomo bicentenario) o creare la vita (Alien: Covenant).

Come pensi si esca da questa incerta spirale di evoluzione tecnologica senza giungere a produrre “mostri della ragione”? Come porvi almeno un argine che garantisca più benefici che rischi per il nostro futuro?

Il problema ha due fronti principali: da una parte ciò che si può fare a monte per produrre al meglio il sistema nel rispetto di principi etici, dall’altra le verifiche a valle. Tra le soluzioni proposte da esperti del settore una è di incrementare la nostra capacità di testare le prerogative di un sistema a IA proprio per questi temi: dopo un test tecnico e un test funzionale la nuova IA dovrebbe quindi superare anche un test etico. Un altro tipo di atteggiamento è dire “insinuiamo nell’intelligenza artificiale una sorta di ‘dubbio’, attivo nei casi più delicati, che obblighi a rivolgersi all’uomo per chiedere indicazioni sospendendo la propria azione”.

Sarò pessimista ma non riesco a immaginare come uno specifico test etico possa garantire rispetto le infinite possibilità di eventi reali per un robot o anche solo una macchina a guida automatica. Scettico anche che ci possa sempre essere il tempo di sospendere l’azione e chiedere all’uomo cosa fare.

Stai percorrendo un tornante in salita di una strada di montagna: a sinistra c’è la scarpata, a destra un lastricato ed una fila di case. In piena curva compare in mezzo alla carreggiata un bambino che arranca su una bicicletta. La velocità è moderata ma non tanto da fermare l’auto in tempo per non investirlo gravemente. A destra c’è una coppia di anziani seduta davanti una casa e sulla corsia opposta sta arrivando un’auto. Cosa dovrebbe decidere l’IA che guida l’auto? Ovvero: come dovrebbe essere predisposta per reagire ad una situazione del genere? C’è una risposta più corretta delle altre? E di chi sarà la colpa di esito infausto? Machina delinquere non potest è la posizione attuale dei giuristi. Dunque si cercherà un colpevole umano e, finché le auto avranno ancora un volante impugnabile, sarà lo stesso guidatore perché non ha preso il controllo del sistema automatico (questa è la posizione predominante attuale). Cosa sarà invece quando esisteranno auto (come già treni) in cui non vi sono comandi manuali e si è completamente affidati al sistema? Chi si incolperà? Il progettista? Il costruttore? E con che sensate argomentazioni, si potrà definire una colpa rispetto ad un sistema che si è autoevoluto con nuovi comportamenti, di cui nessuno conosce gli algoritmi utilizzati per le decisioni?

In effetti, gli stessi esperti che hanno stilato il documento europeo ammettono sinceramente che “i metodi di prova tradizionali non sono sufficienti” per valutare l’affidabilità dell’IA e che forse qualche garanzia si avrà solo monitorando ‘sul campo’, nelle fasi precoci, il comportamento del sistema alle prese con dati reali. Potrebbe essere tardi.

Una possibile chiave è forse nel detto-non detto degli Orientamenti, quando, nell’indicare i Metodi tecnici da utilizzare per fornire queste garanzie di eticità e robustezza pone al primo posto la “traduzione dei requisiti per un’IA affidabile in procedure e/o vincoli di procedura fissati nell’architettura del sistema di IA”, vale a dire (possibilità):

• Una Lista bianca di regole che il sistema deve sempre seguire

• Una Lista nera di restrizioni che il sistema non deve mai trasgredire

Ovviamente come si vada a inserire tecnicamente queste liste di prescrizioni nell’architettura del sistema non è semplice ma neanche insuperabile. Vorrei pensarla come una componente a sé stante, cui tutti i centri di decisionali della macchina ad intelligenza artificiale, diciamo il robot, si debbano rivolgere per un nullaosta prima di prendere ogni decisione che coinvolga esseri viventi: il modulo etico.

Sì. Ci siamo arrivati. Non si è detto ancora quali regole siano da introdurre ma certo le stesse avranno combinazioni e pesi secondo l’ambito e saranno quindi da organizzare in una scala gerarchica di rilevanza, sia nella lista bianca che nella lista nera. Alla base di ogni piramide avremo le regole del “fare vs non fare” più specialistiche, di settore (medico, spaziale, giustizia, etc.) e sopra, progressivamente, quelle a carattere più generale e trasversale.

Fino ad una punta della piramide dove si ritroveranno quelle regole che, obbligatoriamente, devono essere SEMPRE E COMUNQUE necessariamente osservate, valide in ogni situazione e superiori ad ogni altra motivazione.

Immagini quali potrebbero essere, vero? Ritengo proprio che, in una forma più completa, magari integrata con l’attenzione agli altri esseri viventi e all’ambiente (con priorità differenziate rispetto alla vita umana) alla fine le regole guida non potranno che essere una rielaborazione della geniale invenzione del più famoso scrittore di fantascienza del ‘900, Isaac Asimov, nella sua forma più completa:

Le quattro leggi della robotica (le tre leggi più la Legge Zero)

Legge Zero: Un robot non può danneggiare l’Umanità né può permettere che, a causa del suo mancato intervento, l’Umanità riceva danno.

Prima Legge: Un robot non può recar danno a un essere umano né può permettere che, a causa del propriomancato intervento, un essere umano riceva danno, a meno che questo non contrasti con la Legge Zero.

Seconda Legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge e a meno che questo non contrasti con la Legge Zero.

Terza Legge: Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e con la Seconda Legge né con la Legge Zero.

Salvo generalizzare ‘robot’ in ‘sistema ad intelligenza artificiale’, cos’altro di meglio potremmo mettere in cima alla nostra piramide a guidare il modulo etico? Sei d’accordo?

Di Arnaldo Carbone

QUID è la nuova rivista digitale del Mensa Italia, l’associazione ad alto Q.I., che raccoglie le competenze e le prospettive personali dei Soci, organizzandole in volumi monografici.

Scaricabile gratuitamente da http://bit.ly/MensaQUID_01

QUID nasce con l’ambizione di confrontarsi senza voler ricomporre a tutti i costi un pensiero rappresentativo e prevalente, per proporre una lettura sempre aperta dei temi che stanno a cuore ai Soci del Mensa Italia.

--

--

Mensa Italia

Il Mensa è un’associazione internazionale senza scopo di lucro di cui possono essere soci coloro che hanno raggiunto o superato il 98º percentile del Q.I.