Prima di Chat GPT, casi in cui l'intelligenza artificiale ha prevalso sull'etica e riflessioni per implementare una coscienza morale.
Questo articolo è stato scritto in collaborazione con la IA Chat GPT 😊
L’incredibile Hype creato da Chat GPT ha reso ancora più attuale il tema dell’etica dell’intelligenza artificiale.
Definizione di Intelligenza Artificiale
Se chiedete a Chat GPT che cosa sia l’intelligenza artificiale vi risponderà, più o meno, così: “L'intelligenza artificiale (IA) è una branca dell'informatica che mira a creare sistemi e macchine che possono svolgere compiti che normalmente richiedono intelligenza umana, come il ragionamento, il riconoscimento dei pattern, l'apprendimento e la capacità di comprendere il linguaggio naturale.
L'IA è suddivisa in tre categorie: debole, forte e generalizzata.
L'IA debole è la forma più comune, in cui un algoritmo è in grado di svolgere un compito specifico, come il riconoscimento delle immagini.
La forte, invece, si riferisce a sistemi che possono svolgere qualsiasi compito che un essere umano può svolgere.
L'IA generalizzata si riferisce a sistemi che possono svolgere qualsiasi compito che un essere umano può svolgere, inclusi quelli che non sono stati inizialmente previsti.”
Problemi etici dell’Intelligenza Artificiale
Quindi l’intelligenza artificiale mira a imitare le prestazioni dell’intelligenza umana. Ma gli umani, purtroppo, non sempre fanno buon uso della loro intelligenza. Dobbiamo aspettarci lo stesso dalle macchine?
2001: Odissea nello spazio
Per cominciare a riflettere facciamoci aiutare dalla fantascienza (SPOILER ALERT!). Nel film 2001: Odissea nello spazio HAL 9000 è un'intelligenza artificiale che governa ogni aspetto dell’astronave Discovery con equipaggio umano. HAL è l’unico ad essere informato del vero scopo della missione e decide di sacrificare l’equipaggio a favore della missione.
L’algoritmo di Facebook
Nel 2017, Facebook aveva inserito come target a cui indirizzare gli annunci pubblicitari “gruppi di persone che odiano gli ebrei”. Quando poi sono stati scoperti da ProPublica, i tecnici di Facebook si sono giustificati dicendo che le categorie erano state reperite automaticamente dai sistemi di machine learning dell’algoritmo di Facebook. Per l’algoritmo era totalmente indifferente che ci fosse il gruppo di quelli che amano grigliare la domenica accanto al gruppo di quelli che odiano gli ebrei.
In questo caso il sistema si è letteralmente preso le informazioni di cui aveva bisogno per creare gruppi omogenei di utenti. In assenza di istanze etiche da rispettare, per l'algoritmo ogni categoria di utenti era lecita.
Come dovrebbe fare un’intelligenza artificiale a stabilire che il gruppo delle persone che odiano gli ebrei è eticamente sconveniente? Ci vuole forse un’intelligenza artificiale di secondo livello che funga da coscienza morale della prima? E chi controllerà quest’ultima?
Le automobili a guida autonoma
Un altro esempio di tema sensibile per l’etica dell’IA è legato al fenomeno delle auto a guida autonoma. Infatti, l’auto è costruita per preservare il suo equipaggio e sé stessa, ad esempio possiede sensori per non sbattere contro ostacoli. Nel caso in cui ci fosse un possibile scontro con un pedone, o un gruppo di pedoni, cosa deve considerare più importante? La salvaguardia dei pedoni, e quindi deviare sbattendo contro altri ostacoli, oppure preservare a tutti i costi la sicurezza dei passeggeri?
Il dilemma del sacrificio: Io Robot
La decisione se salvare i passeggeri o altre vite che l’IA dell’esempio precedente dovrebbe prendere è un caso del dilemma etico della decisione di sacrificio.
Esiste un toccante esempio cinematografico di un dilemma etico simile nel film Io Robot. Il protagonista Del Spooner subisce un incidente automobilistico nel quale due auto, spinte da un camion, cadono nel fiume. Un robot NS4 passa da quelle parti, vede l’incidente, salta in acqua e decide di salvare il protagonista, anziché una bambina dodicenne di nome Sarah intrappolata nell’altra auto, nonostante Spooner lo scongiuri di salvare la bambina. Per il robot salvare il protagonista era la scelta più logica perché Spooner aveva il 45% di chance di sopravvivenza, la bambina solo l’11%. Spooner conclude: “per chi amava quella bambina l’11% era più che sufficiente, un umano lo avrebbe capito!”.
Etica per l’IA
A regolamentare da un punto di vista etico ciò che all’epoca era solamente fantascienza o preistoria dell’intelligenza artificiale, ci aveva già pensato Isaac Asimov agli inizi degli anni ‘40 con le sue “Tre leggi della robotica”:
- “Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.”
- “Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.”
- “Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.”
Ad oggi esistono, e verranno sempre più perfezionati sia in Europa che negli Stati Uniti, codici etici da seguire che regolamentano l’utilizzo dell’AI.
L'Unione Europea, ad esempio, nel 2018 ha varato un codice il cui fulcro è che l’intelligenza artificiale non dovrà mai danneggiare gli esseri umani, gli animali o la natura e le macchine intelligenti dovranno sempre operare in favore della realizzazione dell'autonomia dell'uomo senza mai ridurla.
Il tema delle norme è giuridico, c’è però il problema tecnologico. Di quelle norme devono infatti tener conto le intelligenze artificiali.
Come è possibile che una tecnologia che auto apprende tenga conto in modo inderogabile di alcune norme etiche? Come fa l’IA a governare sé stessa?
Dovrebbe essere dotata di un'istanza che apprende e muta e di un'istanza etica che sorveglia questo apprendimento e non muta rimanendo capace di prendere decisioni etiche condivisibili dagli umani anche in situazioni totalmente nuove. Un'istanza etica i cui principi non cambiano a seguito della conoscenza che l’IA acquisisce nel tempo.
Come implementare una coscienza morale
Per capire meglio come questo potrebbe succedere consideriamo il caso dell’intelligenza artificiale applicata alla comprensione del linguaggio naturale (il linguaggio umano).
Le tecnologie di intelligenza artificiale per la comprensione del linguaggio naturale sfruttano diverse tecniche che possono essere suddivise in due categorie: comprensione simbolica (symbolic AI) e machine learning/deep learning.
La comprensione simbolica è un approccio di intelligenza artificiale white box che sfrutta livelli molto avanzati, simili a quelli umani, di conoscenza, logica e rappresentazione dei problemi.
Il machine learning è un approccio black box che utilizza algoritmi matematici per identificare modelli statistici ed estrarre informazioni. Basandosi sull’inferenza crea nuova conoscenza.
Un sistema black box non fornisce informazioni sulle decisioni che prende, sui processi interni o sulle regole che utilizza per generare i risultati. L'osservatore esterno non può vedere o comprendere come viene elaborata l'informazione all'interno del sistema e come vengono generate le decisioni.
Quindi per l’implementazione delle regole morali che rappresentano la “coscienza morale” dell’IA è preferibile un approccio white box che, grazie alla sua trasparenza, renda possibile capire il processo decisionale di tipo morale che ha portato l’IA a prendere una determinata decisione. Ciò consente di identificare eventuali problemi etici e correggerli prima che causino danni.
Noi di NSI - Think Outside the Box supportiamo le aziende nell’analisi e nella revisione dei processi aziendali complessi, integrando funzionalità di intelligenza artificiale - basate sia su IA simbolica che machine learning - in soluzioni software dedicate.