Algoritmi: la schiavitù dell'uomo del futuro

Non ci sono più dubbi: il XXI secolo verrà ricordato come l'era dell'intelligenza artificiale. Questo a causa della gestione della complessità sempre maggiore delle società postindustriali, permettendo la creazione di una corsa sfrenata allo sviluppo di sistemi automatici idonei a coordinare in questo compito l'intelligenza umana.


Ma quali sono i problemi che questa crescita esponenziale ci riserva? Partendo dalle linee generali, un algoritmo può essere definito come "un procedimento che risolve un determinato problema attraverso un numero finito di passi elementari, chiari e non ambigui, in un tempo ragionevole". L'algoritmo è quindi la base teorica della "calcolabilità", che da esso deriva, ovvero: "un problema è calcolabile quando è risolvibile mediante un algoritmo". Anche se di origini molto antiche, al giorno d'oggi il concetto di algoritmo sta vivendo una nuova gioventù, a causa dell'impiego massivo che le società dei cosiddetti "Big Data" hanno preso e continuano a farne. Gli algoritmi e l'intelligenza artificiale vengono infatti utilizzati sempre più spesso per svolgere compiti più o meno complessi, i quali richiedono dunque la gestione di una grande mole di dati, producendo effetti visibili sulle vite di miliardi di persone nel mondo.

Hai un minuto per noi? Aftermath Studies, rubrica informativa di Riscrivere la Storia, è un portale d’informazione gratuitamente accessibile a tutti nella sua interezza. Tuttavia, la realizzazione del portale non è priva di spese: anzitutto per l’indirizzo del sito web, per il lavoro dei nostri collaboratori non retribuiti ed infine per la ricerca di materiale e per il tempo da dedicare al progetto. Siamo auto-finanziati al 100% e ti chiediamo una semplice e simbolica donazione libera, se credi che il compito di far rivivere e verificare i fatti storici sia fondamentale, se credi che il giornalismo del web dovrebbe prendere strade nuove ed inesplorate e, soprattutto, se ami la storia dell’uomo! Tutto lo staff, ovviamente, non potrà fare altro che ringraziarti, qualunque sia il tuo contributo al nostro progetto!

Ogni giorno, attraverso l'uso di un algoritmo, si decide chi debba essere assunto, a chi spetti un determinato prestito, chi possa accedere a un programma assistenziale e così via. Non sempre tuttavia il loro impiego è stato privo di critiche e si è dimostrato efficiente: è il caso degli Stati Uniti, dove la tecnologia è più avanzata. Gli algoritmi sono già entrati prepotentemente addirittura nel sistema che esercita la giustizia, con esiti tutt'altro che rassicuranti e che fanno rabbrividire.


Un piccolo esempio: nel 2013 un certo Eric Loomis, accusato di aver partecipato a una rapina, ha visto la sua condanna aumentare di grado poiché un software specializzato lo ha ritenuto ad alto rischio di recidiva. In seguito alla presentazione di svariati ricorsi contro la decisione della condanna del software, l'intervento della Corte d'appello e della Corte Suprema del Wisconsin hanno risposto che "l'utilizzo di un algoritmo non ha determinato nel suo caso alcuna violazione di diritti". Tuttavia, secondo Loomis, il fatto che l'imputato non fosse posto in condizione di capire e valutare il procedimento logico attraverso cui il software aveva elaborato il proprio processo e ne aveva elaborato un responso proprio costituiva una evidente lesione del suo diritto di difesa. Inoltre Compas (il nome del software in questione) era un programma "proprietario", in gergo informatico "privato". Ciò significa che la creazione ed il suo funzionamento è coperto da segreto commerciale, e perfino al giudice è stato impedito di ricostruirlo. A parere dei magistrati, al contrario, la procedura decisionale garantiva un sufficiente grado di trasparenza fondamentalmente per due motivi: 1) Compas utilizza soltanto dati pubblici o forniti dallo stesso imputato. 2) Il giudice non è obbligato ad avvalersi del suo ausilio nello stabilire il grado di probabilità di una recidiva. Diventato ormai celebre, il caso Loomis, non è l'unico nel quale software, mediante l'uso di algoritmi di qualche tipo, è stato utilizzato in una sentenza giudiziaria o in un'indagine di polizia. E, secondo gli "addetti ai lavori", in futuro non ce ne sarà da meravigliarsene dato che tali software in grado sia di prevedere i luoghi in cui è più probabile che verranno commessi reati, sia di giudicare e ipotizzare recidività, aumenterebbero esponenzialmente il grado di efficienza delle forze dell'ordine e di accuratezza dei giudici nella decisione delle pene.


Al contrario, tutti coloro che sono contrari all'automazione capillare nel sociale si oppongono strenuamente. Secondo i critici di tali impostazioni, non solo non vi sarebbe alcuna prova dell'effettiva efficienza dell'automazione, ma gli algoritmi in un prossimo futuro sarebbero enormemente influenzati da pregiudizi di natura razziale, economica e politica e condizionerebbero artificiosamente il comportamento di coloro che li utilizzano, portandoli a vedere quello, e solo quello, che il sistema ha previsto. Secondo Hany Farid (co-autore dello studio del Dartmouth College) il problema dell'uso di questi algoritmi risiederebbe nella scarsa comprensione del loro funzionamento da parte di chi deve avvalersene, il tutto aggravato ancor di più dall'utilizzo del c.d. "machine learning", un procedimento di autoapprendimento attraverso cui le macchine imparerebbero da sole, attraverso uno scambio di dati registrati in server cloud, rendendosi sempre più autonome persino dai loro creatori. Si sta quindi introducendo la possibilità che le macchine possano apprendere dai propri errori e migliorarsi costantemente, importando il concetto di "esperienza" umana nella strutturata e matematica mente cibernetica.

Senza capire come funzionano gli algoritmi, in conclusione, non possiamo capire il procedimento logico dell'elaborazione della decisione e, conseguentemente, non se ne possono dimostrare l'efficacia o l'inefficacia. Tutto questo ha un senso? E cioè il problema, di conseguenza, non potrebbe proprio risiedere alla base di tale metodo, ovvero automatizzando quel che automatico non è (e forse non potrà mai essere)?


Di: Claudio Pira

Fonti:
B. Saetta, "L'algoritmo che prevede chi commetterà un crimine, tra poca trasparenza e pregiudizi", Valigiablu.it, link consultabile qui: https://bit.ly/2UL2Vy9.
Muhammad ibn Musa al-Khwarizmi (https://bit.ly/2BhtYIu)
Dressel-Farid 2018 ("The accuracy, fairness, and limits of predicting recidivism"), citato in B. Saetta, "L'algoritmo che prevede chi commetterà un crimine, tra poca trasparenza e pregiudizi", Valigiablu.it, consultabile qui: https://bit.ly/2UL2Vy9.

Commenti

Post popolari in questo blog

Cause e conseguenze delle bombe atomiche sul Giappone

Perché il Mediterraneo sparirà "presto" e l'Europa si unirà all'Africa