L’espressione “intelligenza artificiale” (spesso abbreviata in IA), ai più, richiamerà forse l’idea fantascientifica di robot capaci di pensiero proprio, con conseguenze a volte disastrose per l’intero genere umano spesso sottomesso al volere e al potere delle macchine. Nonostante la creazione di software capaci di autocoscienza, e cioè non troppo dissimili dalla mente umana, fosse nelle intenzioni dei padri della disciplina, ad oggi l’intelligenza artificiale appare molto distante dal raggiungimento di questo (fantastico) obiettivo. I risultati, spesso altalenanti, della ricerca in intelligenza artificiale hanno prodotto computer capaci di eseguire questo o quell’altro compito specifico: si pensi, ad esempio, al famoso match di scacchi tra Deep Blue e l’allora campione mondiale Gary Kasparov, vinto rumorosamente dalla macchina di IBM. Per quanto tali dimostrazioni possano essere interessanti, i ricercatori in IA non si ritengono ancora soddisfatti: Deep Blue era capace di giocare a scacchi – ma non era capace di decidere di fare altro; non era autosufficiente (aveva bisogno di numerosi operatori per funzionare) e soprattutto non “sapeva” di star giocando a scacchi. Ad oggi, i computer sono in grado di effettuare operazioni sorprendenti (esistono addirittura computer che dichiarano di avere coscienza propria) eppure il rischio di una lotta tra la razza umana e quella elettronica sembra soltanto, per l’appunto, fantascienza. I dilemmi etici di Isaac Asimov sembrano molto distanti. Tutto a posto dunque! O no?

 

Le fortune dell’IA si sono recentemente legate a doppio filo a quelle di un suo sotto-ambito oggi molto di moda e di cui forse il lettore più attento alla tecnologia avrà già sentito parlare: il cosiddetto Machine Learning, che in italiano si traduce approssimativamnte con l’orribile “Apprendimento Meccanizzato” o “Apprendimento Automatico”. Grazie a questa tecnica, siamo capaci di creare – per l’appunto – macchine che “apprendono” e sono capaci di effettuare ragionamenti spesso molto raffinati. Netflix (e Amazon, Spotify, Facebook, Google, Instagram…) lo utilizzano ad esempio per consigliarci film, musica, proposte di lavoro, prodotti, amicizie, ideologie, ma non mancano anche applicazioni in ambiti molto delicati come quello medico e giudiziario – ed è qui che le acque iniziano a farsi torbide. Queste macchine, in effetti, apprendono. Ma da cosa?

Apprendono da dati – incredibili moli di dati – i cosiddetti “Big Data”. Questi enormi database sono facilmente a disposizione delle grandi multinazionali sopracitate a cui un po’ tutti, oggi, cediamo informazioni personali di ogni tipo. Questi privati le utilizzano per scopi spesso utili, ma a volte un po’ angoscianti: si veda ad esempio il caso COMPAS-ProPublica che nel 2016 ha dimostrato all’opinione pubblica che non è difficile varcare la soglia di territori pericolosi. COMPAS della compagnia Northpointe è uno dei numerosi software di supporto a decisioni giuridiche che si occupa di valutare il rischio di recidivismo dei detenuti – in un certo senso, è un programma utilizzato dai giudici americani per valutare la probabilità che un detenuto compia un crimine in futuro. Senza entrare in tecnicismi, in questo lungo articolo ProPublica ha dimostrato dopo difficili e scrupolose analisi che tali algoritmi tendono a predire un più alto rischio di futuri crimini quando il detenuto in questione è nero. In altre parole, durante il processo di apprendimento su dati prodotti da esseri umani, la macchina ha “inconsapevolmente” adottato un pregiudizio razziale umano. Per tutelare i soggetti giuridici ed evitare che casi simili si possano ripetere, l’Europa oggi applica il “diritto ad una spiegazione” facente parte del “General Data Protection Law” (GDPR) in vigore dal 2018. Questo garantisce in effetti che, nel caso in cui vengano utilizzati software per prendere decisioni importanti come quella di cui sopra, il soggetto della decisione abbia il diritto di ricevere una spiegazione da tale software. Allo stato attuale delle cose non è sempre facile ottenere simili spiegazioni, e quindi l’utilizzo di questi programmi è parzialmente proibito per scopi critici. Se però pensate che questa sia la fine della storia, e che simili problemi siano distanti da voi e dai vostri cari, fareste meglio a ricredervi: il software KeyCrime è in utilizzo dalla polizia di Milano per operazioni di polizia predittiva, ossia di prevenzione del crimine a la Minority Report. Nonostante i proclami ("la riduzione dei crimini […] ha raggiunto il 50%") è bene essere consapevoli dei limiti e pericoli di queste tecnologie, seppur senza cedere a facili allarmismi.