Il 2020 si è aperto con importanti novità dal punto di vista tecnologico e applicativo. In tal senso, i discorsi circa le intelligenze artificiali sono meno “rivoluzionari” ma ugualmente importanti: lo sviluppo delle AI cresce in maniera velocissima, ponendo quesiti non solo in merito alla tutela della privacy dei consumatori, ma anche in termini prettamente etici. La questione del rapporto tra etica e tecnologia non è certamente un argomento nuovo (ne avevamo già parlato qui) ma, con l’avanzare del progresso tecnologico, è normale che aziende e utenti si chiedano sempre più frequentemente se le intelligenze artificiali possano effettivamente diventare più etiche e, soprattutto, se ci siano modi concreti per strutturare tale processo.
Etica e intelligenza artificiale: tra evoluzione e bias comportamentali
Ad oggi alcuni prototipi di AI sono capaci di realizzare ragionamenti e risultati computazionali sbalorditivi, pur essendo ancora molto distanti dallo sviluppare quella capacità di analisi ed elaborazione che contraddistingue il pensiero umano. A tal proposito, recentemente Alvin Dubicki, ingegnere robotico del MIT, non ha nascosto una certa apprensione nel notare che lo sviluppo tecnico delle AI non procede di pari passo con quello etico.
La pietra angolare della questione è indubbiamente l’enorme evoluzione compiuta nell’ambito del machine learning e, più specificatamente, del deep learning. Si tratta, come noto, delle branche dello studio delle AI addette all’automatizzazione comportamentale attraverso l’apprendimento della macchina, che diviene capace di compiere un determinato task senza istruzioni esplicite. I risultati ottenuti nei campi più disparati sono entusiasmanti: nel “drug design” – ossia nell’elaborazione di medicinali e sostanze mediche – il sistema di deep learning AtomNet è stato utilizzato per elaborare biomolecole nella cura del virus Ebola; nel campo della pubblicità siamo tutti testimoni dell’incredibile avanzamento del tasso di personalizzazione degli advertisement.
Qual è, allora, il problema? Secondo un recente studio condotto da Aylin Caliskan, una giovane ricercatrice dell’università di Princeton, sembra che a una maggiore capacità di analisi ed elaborazione delle macchine corrisponda una crescente difficoltà di previsione del comportamento e dunque del controllo di bias nei loro risultati. Lo studio mostra inoltre che, con particolare riguardo all’analisi dei testi scritti, i sistemi di intelligenza artificiale testati presentano evidenti pregiudizi nel comportamento finale. Un problema, in realtà, dovuto alla naturale permeazione di pregiudizi, sottotesti e ambiguità lessicali di cui è formato il linguaggio umano. Gli errori nell’elaborazione dei dati si sono manifestati anche in contesti più complessi di quello studiato da Caliskan. Ad esempio, attraverso un lavoro congiunto tra il MIT e l’Università di Cardiff, si è notato che anche la semplice comunicazione tra macchine può portare a bias comportamentali. Ciò potrebbe rivelarsi un ulteriore motivo di preoccupazione qualora si decidesse, in futuro, di implementare sistemi composti da AI multiple in contatto tra loro.
Ad oggi, quindi, il problema più urgente sembra essere quello di eliminare – o comunque ridurre al minimo – i bias delle AI. Un’Intelligenza Artificiale che agisce con pregiudizio può infatti portare a risultati imprevedibili oltreché indesiderati. È evidente che, a seconda del contesto, il comportamento pregiudizievole della macchina possa colorarsi di un disvalore squisitamente umano. Ad esempio, una AI che mostri bias comportamentali capaci di escludere determinate categorie di soggetti o di preferirne altre potrebbe essere facilmente tacciata di mancanza di etica e di consapevolezza sociale. Si tratta però di un’affermazione che distorce, a sua volta, la realtà delle cose – ovviamente molto più complessa di così.
Risolvere i bias comportamentali: un compito possibile
In termini assoluti, un problema etico propriamente detto potrà porsi quando le macchine avranno capacità di pensiero, di consapevolezza e di comportamento totalmente autonomi. Solo in quel caso sarà possibile attribuire un concreto valore etico alle macchine, ossia l’aggiunta di un substrato sociale e culturale a determinate azioni, altrimenti controllate dalla fredda razionalità. Si tratta – è evidente – di un orizzonte lontano nel tempo. Ciò che invece in questo momento desta reali preoccupazioni è la difficoltà tecnica di istruire le AI in modo da ridurre i bias al minimo, correggendo i pregiudizi e fornendo dati a basso tasso di fraintendibilità. Allo stato attuale è necessario correggere il tiro fin da subito, così da rendere affidabili le intelligenze artificiali; non solo per le aziende, ma anche e soprattutto per una maggior tutela nei confronti dei consumatori. L’etica, attualmente, va quindi principalmente intesa come necessità di insegnare alle AI l’applicazione di quei filtri e di quei meccanismi di elaborazione capaci di portare a risultati più equi e giusti.
Le risposte tecniche a questi interrogativi sono già in fase di studio: IBM ha recentemente sviluppato un software con il compito primario di individuare i bias decisionali delle intelligenze artificiali: l’individuazione del ragionamento della macchina, infatti, è il primo passo per contrastare i pregiudizi che possono nascere con il machine learning. Il tool di IBM, però, si spinge oltre, fornendo suggerimenti diagnostici anche per la correzione degli algoritmi.
Per quanto riguarda invece il versante delle correzioni dirette ai comportamenti ingiusti delle AI, va segnalato un recente esperimento dell’università del Massachusetts: un team di ricercatori ha messo a punto un framework basato sugli algoritmi Seldonian – che prendono il nome dal protagonista del Ciclo della Fondazione di Asimov, Hari Seldon. Il compito del framework è quello di inserirsi nei processi di analisi ed elaborazione dei dati delle AI, guidando queste ultime nell’eliminazione di comportamenti indesiderati.
Si tratta di una strada relativamente nuova, ma di importanza estrema per indirizzare lo sviluppo delle intelligenze artificiali verso i giusti binari. D’altro canto, un’AI che presenti bias comportamentali è sostanzialmente una macchina inefficiente, soprattutto in quei contesti caratterizzati da scelte non esclusivamente razionali. Al netto di tutto, resta però fermo il concetto che il termine “etica”, all’interno del panorama delle intelligenze artificiali, debba essere inteso come modo per scindere tra un comportamento equo (e quindi umanamente giusto) ed un comportamento iniquo e scorretto, ma certo non per attribuire alle AI capacità ben lontane dallo stato dell’arte attuale.
Verso un progresso tecnologico più etico…
La questione relativa al rapporto tra etica e intelligenza artificiale intesa come possibilità di insegnare alle macchine cosa è giusto e cosa non lo è, vede quindi scenari promettenti in rapido sviluppo. Di sicuro molte delle preoccupazioni degli esperti sono fondate, almeno nel limite in cui si consideri l’etica delle AI una vera e propria feature, una componente che le renda in grado di sopperire agli errori nati da conflitti in fase di elaborazione o di analisi dei dati. La soluzione ai bias manifestati dalle intelligenze artificiali in alcuni frangenti è però già stata ipotizzata e in taluni casi realizzata: è sufficiente implementare algoritmi, framework e parametri capaci di aumentare i paradigmi di scelta delle macchine, in maniera da ottenere risultati equi. Non che sia semplice: si tratta, d’altro canto, di uno sviluppo che deve necessariamente procedere di pari passo con l’avanzamento tecnologico delle AI, per evitare criticità difficilmente recuperabili in un futuro che sembra appoggiarsi sempre di più all’utilizzo delle intelligenze artificiali nella vita di tutti i giorni.