di Jessica Andracchio

 

Gli algoritmi discriminano le minoranze e i robot hanno bisogno di leggi appositamente per loro; non si tratta di fantascienza, ma di una realtà piuttosto urgente.

 


 

Qualche giorno fa, mi sono imbattuta in uno di quei post che vanno molto di moda sui social network, nel quale un signore anziano chiedeva a Google “grazie” e “per favore” quando domandava al motore di ricerca di trovare qualcosa per lui. Da quel post ho cominciato a riflettere sul fatto che, forse, non è poi così inutile essere gentili con la tecnologia, dal momento che questa impara dalle tracce che noi esseri umani lasciamo su internet.
Partendo da questo pensiero un po’ ingenuo ed innocente, ho effettivamente trovato riscontro a questa idea stramba quando sono venuta a conoscenza del fatto che gli algoritmi, le reti neurali e, più in generale, l’intelligenza artificiale, discriminano gli esseri umani in base al colore della pelle, al sesso, al reddito e altro ancora.

Per spiegarvi cosa intendo, partiamo da un piccolo esperimento. Aprite Google Immagini e cercate “acconciature donna professionali”, dopodiché “acconciature donna non professionali”. Avete notato la differenza tra le immagini che vi sono state proposte in seguito a queste due ricerche? Le “acconciature professionali” raffigurano per la stragrande maggioranza donne bianche, con acconciature professionali tanto quanto quelle che troviamo cercando “acconciature donna non professionali”; queste ultime, però, sono state fatte su donne di colore.
seiauno_manologIn questo caso, il pregiudizio è evidente: i capelli di donne bianche vengono considerati migliori rispetto a quelli delle donne nere che, nonostante siano anch’essi acconciati professionalmente, sono stati inseriti tra i risultati delle ricerche “acconciature donna non professionali”.
Sempre parlando di Google Immagini, ricercando professioni come scienziato, astronauta e fisico troveremo più immagini di uomini, mentre cercando attività legate alla casa troveremo più immagini di donne.
Inserendo nel motore di ricerca parole come “scimmione”, ad un certo punto è possibile incontrare immagini di persone di colore.

Allo stesso modo, spesso per le donne è molto più complicato ottenere dei mutui, pur avendo le stesse possibilità economiche di uomini; oppure, persone di colore e stranieri vedono le loro carte di credito rifiutate quando vanno a fare compere.

Tutte queste situazioni, e molte altre, accadono a causa di quella che viene detta discriminazione algoritmica, uno dei lati più negativi dell’autonomia dell’intelligenza artificiale.
Come già detto in articoli precedenti, quando si pensa all’intelligenza artificiale si ha spesso paura che questa possa, in futuro, superare e rimpiazzare l’uomo. Non si pensa mai al fatto che già nel presente ci siano problemi legati alle IA e che queste influiscano già in modo negativo nella vita di molte persone. Non c’è bisogno di immaginare futuri distopici nei quali i robot prendono il controllo per allarmarsi; la discriminazione algoritmica, infatti, è una preoccupazione ben più attuale, pressante e concreta.

In un altro articolo abbiamo visto come le reti neurali producano risultati da sole, ovvero elaborando grandi quantità di dati per ricavare un risultato accettabile. Queste reti, però, producono risultati eccellenti esclusivamente quando si parla di logica; analizzare dati, imparare a giocare a scacchi, consigliare una diagnosi piuttosto che un’altra basandosi sulla storia clinica del paziente e guidare autonomamente alcune macchine sono solo esempi dei molti risultati ottenuti dall’intelligenza artificiale.
C’è una cosa, però, che queste macchine non hanno e che risulta difficile da insegnare a degli algoritmi: la sensibilità.

Questo porta gli algoritmi a produrre risultati senza tenere in considerazione il lato umano delle persone e basandosi solo su dati incompleti e pieni di bias, parola che in gergo scientifico sta ad indicare la tendenza all’errore, mentre in psicologia cognitiva indica il pregiudizio.

Possiamo suddividere queste discriminazioni algoritmiche in due categorie: discriminazione di allocazione e di rappresentazione.
Nelle discriminazioni di allocazione, l’algoritmo deve fare i conti con delle risorse limitate e decidere a chi assegnarle. Questo algoritmo ha regole di classificazione, ranking ed infine graduatoria secondo le quali assegna una sorta di punteggio agli individui; in base a questo punteggio, viene deciso a chi concedere la risorsa limitata in questione. In questo caso possiamo ritrovare il precedentemente citato esempio dei mutui; l’algoritmo concede automaticamente meno mutui alle donne, semplicemente in quanto appartenenti al genere femminile. È chiaro come, dovendo assegnare delle risorse limitate, questo algoritmo scelga le persone più affidabili in base ai suoi calcoli; il pregiudizio, ovviamente, sta nel non considerare affidabili le donne per quanto concerne la gestione di denaro o altre preziose risorse.

La seconda tipologia di discriminazione algoritmica è quella di rappresentazione, e anche di questa abbiamo già proposto alcuni esempi. Si tratta infatti della discriminazione “visiva”, nella quale vengono presi e amplificati dall’algoritmo dei preconcetti su persone di colore o persone di un determinato genere o sessualità. Questo porta a trovare, ad esempio, immagini di persone di colore catalogate come “scimmie”, di donne associate a mestieri relativi alla casa e di omosessuali associati ad immagini di uomini con indosso solamente un tanga mentre sfilano al gay pride.

Veniamo dunque alla domanda fondamentale: perché gli algoritmi discriminano? La risposta, in realtà, è già stata proposta varie volte in questo articolo ed è tanto semplice quanto allarmante: gli algoritmi, che non fanno altro che leggere i dati che gli vengono dati in pasto, amplificano delle discriminazioni che sono già presenti proprio nei dati. La rete sa soltanto cosa rappresenta il fallimento della sua operazione e cosa invece il successo; conosce le regole, le applica alle informazioni che gli diamo e produce un risultato. Non sa cosa sia accettabile a livello morale e cosa no.
Bisognerebbe perciò chiamare in causa chi scrive questi algoritmi. Gli scienziati e gli studiosi che si occupano di creare questi algoritmi devono tenere conto del fatto che, per ottenere un risultato accettabile, bisogna che questo non leda la dignità culturale degli esseri umani, di nessuna minoranza.
Al giorno d’oggi, i codici algoritmici possono essere scritti da chiunque, anche da ragazzi alle prime armi; non c’è, però, nessun corso che effettivamente spieghi come “regolare” questi algoritmi di modo che siano equi e giusti.
Si sente quindi sempre più il bisogno di leggi che regolino la creazione di questi algoritmi, quando questi sono coinvolti in attività che vedono l’essere umano come protagonista.

Come accennato in altri articoli, infatti, l’intelligenza artificiale è qualcosa che va di pari passo con la nostra intelligenza e, perciò, si collega a discorsi filosofici, etici e storici. Facciamo un esempio: se un robot facesse AInowuna diagnosi errata ad un paziente, quest’ultimo dovrebbe prendersela con l’algoritmo? Con chi ha creato l’algoritmo? Con chi ha assemblato la macchina? Con i medici? È evidente che, come nel caso del razzismo e del sessismo degli algoritmi dei motori di ricerca, neanche in questa occasione ci siano leggi che regolano eventuali provvedimenti contro l’intelligenza artificiale.

A questo scopo sono nati istituti come l’AI Now Institute, che studiano l’etica dell’intelligenza artificiale applicata al nostro mondo. AI Now è stata fondata da Kate Crawford e Meredith Whittaker nel 2017, e produce rapporti annuali che esaminano le implicazioni sociali dell’intelligenza artificiale, concentrandosi sui seguenti temi: bias e inclusione sociale, manodopera e automazione, diritti e libertà e sicurezza e infrastrutture civili.
In un’intervista, Crawford ha dichiarato che uno dei motivi che hanno portato alla nascita dell’AI Now è che l’applicazione dell’IA in contesti riguardanti la medicina, l’educazione e la giustizia viene trattata come un semplice problema tecnico, mentre dovrebbe essere principalmente un problema sociale. Lo scopo di AI Now è di risolvere i problemi legati ad aree come la sociologia, la legge e la storia, coinvolgendo nel progetto esperti di ognuno di questi campi.
Il pregiudizio può esistere in ogni tipo di servizi e prodotti. Siamo ancora agli albori della comprensione del fenomeno, ma più investighiamo più ne troviamo“, spiega Crawford durante un’intervista.

Sempre nel 2017, il Parlamento Europeo ha approvato una risoluzione che chiede alla Commissione Europea regole giuridiche sul rapporto tra uomini ed intelligenza artificiale, in vista di un futuro che vede il campo della robotica avanzare sempre più velocemente. Nonostante si tratti ancora di una risoluzione, 2017quindi di una richiesta e non di una legge, si fa sempre più sentire la necessità di un qualche regolamento da seguire in situazioni nelle quali si deve giudicare una macchina e non un uomo. Uno scenario del genere si è già presentato quando, a marzo del 2018, una donna è stata uccisa da una vettura a guida autonoma del programma Uber; si trattava di una Volvo, con a bordo un guidatore umano che avrebbe dovuto intervenire in caso d’emergenza, nonostante la vettura stesse letteralmente guidando da sola. La donna, attraversando in un punto male illuminato, non era stata avvistata né dal guidatore né dalla macchina, che ha dato l’allarme solo al momento dello scontro con il corpo. Dal momento che si trattava di un caso senza precedenti, nel quale la vittima aveva perso la vita per colpa di una macchina e non di un essere umano, l’Arizona – stato dove è avvenuto il fatto- ha deciso di sospendere i test su vetture autonome.
In casi del genere, chi dovrebbe pagare i danni? Su chi dovrebbe ricadere la colpa? Le leggi sull’intelligenza artificiale dovrebbero essere rilasciate prima della stessa tecnologia proprio per evitare episodi come questo.

Ipotizzare, studiare ed infine creare algoritmi, reti neurali ed intelligenza artificiale è una grande responsabilità. Non c’è dubbio che il progresso tecnologico porterà a risultati sempre più strabilianti dal punto di vista tecnico, e che i robot di qualsiasi tipo entreranno presto a far parte della nostra vita; proprio per questo, però, abbiamo bisogno di leggi e risposte prima ancora che di macchine autonome che offrono risultati senza farci sapere con quale procedimento li abbiano ottenuti.
Quando gli algoritmi discriminano e quando le macchine autonome uccidono, sbagliano innanzitutto gli esseri umani che vi hanno lavorato; gli algoritmi non fanno altro che assimilare i loro errori e i loro pregiudizi e amplificarli.

Perciò, la prossima volta che vedrò un anziano trattare con gentilezza il suo dispositivo perché questo gli cerchi dei risultati su Google, sorriderò e penserò che forse è il caso che gli esseri umani imparino prima ad essere gentili tra di loro, e solo dopo, come conseguenza, ad insegnare alle macchine come non discriminare; dopotutto, errare è umano.

 


 

 

Comments are closed, but trackbacks and pingbacks are open.