IA_manolog
di Jessica Andracchio

Quando parliamo d’intelligenza artificiale con qualcuno, le reazioni possono variare dalla totale fiducia nei confronti del progresso tecnologico alla paura che quest’ultimo prenda irrimediabilmente il controllo delle nostre vite. C’è davvero da preoccuparsi? A che punto è la ricerca relativa alle IA e in che modo queste si possono definire effettivamente “intelligenti”?

 


 

Intelligenza Artificiale”. Cosa ci dicono queste due parole? All’apparenza, il loro significato è semplice; indica l’intelligenza applicata a delle macchine. Ma quale intelligenza e quali macchine?
Per comprendere lo sviluppo delle ricerche sulle IA, è necessario parlare anche di argomenti come filosofia, storia e biologia, soprattutto se si ha paura che l’intelligenza artificiale possa, un giorno, superare quella umana. Avere un quadro generale di quello che sta succedendo, tenere sotto controllo le notizie e assimilare le informazioni può infatti aiutare moltissimo a tranquillizzarci e a farci accettare la realtà: le nostre vite sono già strettamente collegate all’intelligenza artificiale.
Per intelligenza artificiale, infatti, possiamo intendere qualsiasi tipo di macchina programmata per svolgere un determinato lavoro. Molte compagnie, per attirare i clienti, definiscono “intelligenti” anche gli elettrodomestici più comuni; l’aspirapolvere che va in giro da solo, la lavastoviglie che imposta automaticamente il programma più adatto, la lavatrice che fa risparmiare acqua… insomma, davvero qualsiasi macchina capace di svolgere un lavoro. Prendendo in considerazione questa definizione molto semplificata delle IA, guardandoci intorno scopriamo di essere immersi nella tecnologia intelligente.
Ma cos’è, esattamente, che la rende intelligente?

Intelligenza_Artificiale Per rispondere a questa domanda, è bene rispondere prima alla seguente: cos’è l’intelligenza? Provate a dare una definizione a questa parola, provate a chiederla ai vostri amici, e vedrete che saranno tutte differenti. Questo accade perché la definizione ufficiale di “intelligenza” non esiste; scienziati, filosofi e studiosi in generale non sono ancora riusciti a venire a capo di una soluzione che comprenda ogni tipo di risvolto della nostra intelligenza, né che prenda in considerazione tutte le funzioni del nostro cervello, del quale ancora non si sa tutto.
L’intelligenza non è neppure prettamente umana, poiché i substrati neurologici che generano la coscienza, ovvero le parti del cervello che si attivano per ottenere dei risultati, sono presenti anche negli animali.
In sostanza, quindi, la neuroscienza non è ancora riuscita a capire il funzionamento dell’intelligenza umana.
Qui il discorso si riallaccia all’intelligenza artificiale; per costruire macchine che siano “intelligenti” bisogna innanzitutto avere chiaro il funzionamento dell’intelligenza umana, e per studiare quest’ultimo occorre portare avanti le ricerche sull’intelligenza artificiale. È un circolo vizioso; studiando una delle due cose, si scoprono nozioni sull’altra.

Se consideriamo l’intelligenza il saper adattarsi alle situazioni, vogliamo che il nostro robot sappia svolgere alla perfezione un compito, o che sappia reagire alle situazioni come farebbe un essere umano? In pratica: se un robot costruito per giocare a scacchi si trovasse in mezzo ad un incendio, dovrebbe continuare a giocare a scacchi come nulla fosse, o scappare? “Insegnare” al robot a fare entrambe le cose risulta, al momento, quasi impossibile.
Nonostante ciò, nell’ambito del machine learning o apprendimento automatico si sta studiando come “ricompensare” le IA di modo che possano letteralmente imparare nuove azioni e migliorare costantemente.

Per comprendere come sia possibile che una macchina impari a compiere determinate azioni e che capisca quando sta sbagliando, cosa sta sbagliando e cosa deve fare per correggersi, bisogna tornare alle scoperte degli anni ’70-’80, più precisamente alle reti neurali.
Le reti neurali sono modelli di calcolo matematico-informatico basati sul funzionamento biologico del nostro cervello. Consistono in processori paralleli integrati da una rete di connessioni che vanno a realizzare un programma complesso, così come il nostro cervello consiste di molti neuroni connessi da sinapsi attraverso le quali i ragionamenti arrivano nella nostra corteccia cerebrale. Di base, si tratta di una raccolta di dati reali che, attraverso vari algoritmi, suggeriscono soluzioni pratiche.
Le reti neurali trovano tre principali applicazioni: ottimizzazione, nella quale devono produrre la risposta migliore ad un determinato problema; approssimazione di funzioni, ovvero la capacità di riprodurre un modello basandosi sui dati reali che vengono proposti, ed infine il riconoscimento di campioni.
In generale, le prestazioni ottenibili dalle reti neurali sono la risoluzione in tempo reale di problemi complessi, la resistenza a guasti e ad errori e l’autoapprendimento.
La particolarità di queste reti neurali sta nella loro struttura; presentano una forte interconnessione, comunicano rapidamente, hanno una grande Intelligenza_Artificiale2quantità di memoria e vengono addestrate tramite apprendimento automatico. Il tutto essendo composte da semplici unità elaborative; l’attività della singola unità, infatti, è semplice, ma la configurazione delle connessioni permette di ottenere risultati incredibili.
Alle unità di input vengono forniti i dati presi dal mondo reale, che vengono propagati per tutta la rete, fino ad arrivare alle unità di output con un risultato. Ogni neurone esegue un calcolo elementare, ma ripetuto per molteplici volte, dallo strato più semplice della rete neurale fino ai successivi, quelli più profondi.
Al contrario di altri esempi di intelligenza artificiale, le reti neurali non vengono programmate per eseguire un compito, ma vengono addestrate mediante algoritmi di apprendimento automatico.
Questi algoritmi possono essere di due tipi: supervisionati o con rinforzo/premiazione. L’algoritmo di apprendimento automatico supervisionato è quello “base”; vengono inseriti nel programma degli esempi già classificati per ottenere una funzione. Quello che risulta più complesso ed interessante è l’algoritmo con rinforzo o premiazione, che funziona più o meno come il rinforzo positivo e negativo per gli animali. Prendiamo ad esempio un cane: se vogliamo addestrarlo a compiere una determinata azione, ad esempio a reagire al comando “siediti”, il cane dovrà ripetere molto spesso quell’azione. Perché il cane voglia ripetere quell’azione, deve associarla ad una ricompensa, che gli viene data ogni volta che ripete l’azione “siediti”. La trainer Karen Pryor definisce il rinforzo positivo come “qualsiasi cosa che, verificandosi in congiunzione con un atto, tende a far aumentare le probabilità che tale atto si manifesti di nuovo”.

Torniamo quindi ai nostri algoritmi con premiazione, che funzionano allo stesso modo: l’algoritmo ottiene un premio se funziona correttamente, una penalità se sbaglia qualcosa. Questo premio consiste in una variabile, ovvero un numero che può essere più o meno alto e che viene implementato nell’algoritmo ogni volta che il robot adempie al suo compito, mentre viene tolto quando il robot fallisce. In questo modo, l’intelligenza artificiale riesce a capire se sta sbagliando, se sta svolgendo correttamente il suo compito e quanto deve migliorare. Questo accade perché l’algoritmo è programmato per tentare di ricevere il maggior numero di “voti”, quindi d’implementare più numeri possibili. Più la performance del robot è positiva, più è alto il “voto”, per permettere all’algoritmo di comprendere il margine di miglioramento possibile.
Alcuni robot, invece, sono programmati per ricevere il “voto” tramite comando vocale o tramite tocco; in questo modo, quando si vuole comunicare al robot che sta svolgendo il suo lavoro correttamente basterà dirgli qualcosa come “bravo” o dargli una pacca sulla spalla, oppure per le situazioni opposte gli si dirà “cattivo”.

Int_Art3Questo sistema di reti neurali, machine learning e algoritmi di apprendimento automatico presenta però due fondamentali problemi. Gli algoritmi di apprendimento automatico modificano i parametri della rete neurale di modo da risolvere il problema che le è stato indicato. Il sistema, inoltre, viene addestrato solo con alcuni esempi, in quanto non è possibile inserire un numero troppo elevato d’informazioni; il risultato, perciò, è relativo ad una situazione troppo specifica e non si sa come potrebbe reagire il programma se vi inserissimo nuove informazioni diverse dalle precedenti.
L’altro problema si ricollega all’inizio del nostro discorso e, per alcuni, potrebbe avvalorare la tesi secondo la quale, prima o poi, l’intelligenza artificiale supererà la nostra: è quasi impossibile spiegare come e perché l’algoritmo sia arrivato ad una determinata soluzione.
Sappiamo che il meccanismo che ha portato alla soluzione è partito dalle informazioni che abbiamo fornito alla rete neurale, ma non sappiamo come ha combinato queste informazioni né possiamo spiegare le “decisioni” della rete. È l’uomo a “chiedere” un determinato risultato all’algoritmo di deep learning, ma è quest’ultimo che decide come processare le informazioni e fornirci il risultato, perciò il procedimento ci risulta sconosciuto. Facciamo un esempio: dobbiamo insegnare al nostro robot a giocare a tris. Andando a creare l’algoritmo, non imposteremo le regole, bensì faremo vedere alla rete neurale migliaia di partite; in questo modo, la rete registra migliaia di esempi e propone la situazione statisticamente probabile e corretta. Sappiamo che, adesso, il robot sa giocare a tris, ma non sappiamo quale strategia attuerà durante una partita. Se insegnare ad un robot a giocare a tris impiega pochi livelli delle reti neurali, quando si tratta di ragionamenti che coinvolgono miliardi di neuroni e livelli è impossibile analizzarla e capirne il funzionamento.

Ecco che torniamo nuovamente ad un discorso cominciato in precedenza; per comprendere le nuove tecnologie, dobbiamo prima comprendere il nostro cervello, e viceversa. Neanche noi, infatti, sappiamo spiegare con precisione il funzionamento del nostro cervello e dei nostri pensieri. Sappiamo formulare ipotesi, fare discorsi, risolvere problemi; il procedimento, tuttavia, non è mai perfettamente chiaro.
Sono quindi sempre più numerosi gli psicologi e gli scienziati che hanno cominciato ad usare l’intelligenza artificiale per studiare il funzionamento del cervello umano; usare le reti neurali ci aiuta a visualizzare i meccanismi di apprendimento, anche perché, come abbiamo visto, sono molto somiglianti alla nostra rete neurale biologica.
Questi studi sono fondamentali anche perché, molto spesso, le IA ragionano molto meglio dell’essere umano. Nel 2015, i ricercatori dell’ospedale Mount Sinai di New York hanno creato Deep Patient. Si tratta di un software che, basandosi sulle cartelle cliniche di centinaia e centinaia di pazienti, riesce a diagnosticare alcune malattie prima che esse si presentino. Deep Patient, ad esempio, riesce a riconoscere quando un paziente sta per sviluppare disturbi psichiatrici come la schizofrenia. Dal momento che la rete neurale di Deep Patient ha visualizzato centinaia di casi, è in grado di proporre risultati statisticamente corretti, cosa che i medici non possono fare. Come ormai sappiamo, inoltre, non è possibile sapere come faccia precisamente il software a proporre diagnosi esatte; se lo sapessimo, potremmo prevenire moltissime malattie o comunque trovare uno schema che indichi chi è più o meno propenso a svilupparle e in base a cosa.
Un altro esempio di IA che supera l’uomo è AlphaZero, altro algoritmo di intelligenza artificiale basato su tecniche di apprendimento automatico che,Int_Art4 in un limitato periodo di tempo, è riuscito prima ad imparare le regole di vari giochi e poi a migliorarsi, fino a battere persino campioni di scacchi, shogi e go. Il tutto semplicemente osservando le proprie partite e traendone conclusioni, meglio di come farebbe un essere umano.

C’è da averne paura? Non nell’immediato futuro. Intorno a noi abbiamo migliaia di esempi di intelligenza artificiale, che ci guida nelle nostre ricerche internet, ci aiuta a cucinare, ci fa passare il tempo quando siamo annoiati e decidiamo di fare una partita a scopa “contro il computer”, ci consiglia show da guardare su Netflix e ci guida anche le Tesla.
Sarebbe ipocrita dire “basta, questa tecnologia mi va bene, fermiamoci qui”. Ipocrita, e anche poco credibile; mai quanto in questo periodo storico la ricerca scientifica è stata così proficua, e scienziati e studiosi in generale non hanno la minima voglia di fermarsi proprio ora. Le conseguenze, sia negative che positive, dello sviluppo di IA come le vediamo nei film di fantascienza sono molteplici, impossibili da prevedere e riassumere.
Inoltre, interrompere gli studi sull’intelligenza artificiale, sul deep learning, sulla rete neurale e su tutto ciò di cui abbiamo parlato vorrebbe dire interrompere gli studi sul nostro cervello, impedendo alla scienza di colmare grosse lacune che, in futuro, serviranno a curare numerose patologie, fisiche e mentali.
Al momento, è difficile che venga rilasciata una IA come la s’intende nei film fantascientifici, perciò la cosa migliore che possiamo fare nel frattempo è maturare abbastanza da essere pronti per quando queste tecnologie verranno rese pubbliche.
Accettare che una macchina possa fare una diagnosi migliore di quella di un dottore non significa che quest’ultimo non abbia diritto di parola, come possedere una macchina con l’autopilota non ci darà il diritto di guidare senza patente.
Basta avere l’umiltà di riconoscere che, in fondo, il fatto che le macchine ragionino come o meglio degli esseri umani possa offrirci un secondo punto di vista quasi infallibile che, in moltissimi casi, può fare la differenza.

 

[themoneytizer id=28096-19]

 


 

Comments are closed, but trackbacks and pingbacks are open.