Il figliol prodigo e un dilemma dell’intelligenza artificiale

Stefano Schiavo
4 min readJan 24, 2021

🥙 Il giudice si siede. Soffoca uno sbadiglio. Tipico del dopo pranzo. Guarda le carte del prossimo caso. Niente di nuovo.

L’arrestato avrebbe truffato un bel po’ di gente. Ma sembra nuovo del “mestiere”. Scaltro, c’è da dire. Il processo è fra tre mesi.

La questione è la solita. Tenerlo in carcere fino al processo o lasciarlo a casa. Anche il problema è il solito. Se lo lascio a casa e lo arrestiamo di nuovo non è proprio un grande risultato. Se però lo tengo in carcere e poi risulta innocente…

“Meglio dieci colpevoli liberi che un innocente in carcere”

📖 Tra le carte che ha in mano ce n’è anche una nuova che gli viene data da qualche tempo.

“Sulla base dell’impostazione di una serie di parametri storici e l’analisi di un numero consistente di dati, le probabilità che l’arrestato reiteri il reato se lasciato libero sono del 75%. La nostra soglia di rischio è il 70% per cui si consiglia la detenzione fino al processo”.

Soglia di rischio… Il giudice è perplesso, ma la tecnologia avanza e può essere d’aiuto. Preferiva lo psicologo, ma questo è il mondo degli algoritmi, pensa.

“Meglio dieci colpevoli liberi che un innocente in carcere”.

“La soglia del 70% non fa decisamente al caso mio”.

🇵🇱 Il ragazzo, l’arrestato in questione, è nato in Italia da genitori immigrati polacchi.

“Se lo tengo in carcere per mesi, anche fosse un criminale in erba, mi diventa Al Capone. Vai con lo zoppo e impari a zoppicare, si sa…”

C’è anche un allegato al foglio con il “risk assessment score”.

Dice che è stato rilevato un errore nell’algoritmo utilizzato finora. Servono delle precisazioni sulla validità dei risultati in particolari condizioni.

Se usiamo una singola soglia che minimizza i possibili errori, risulta che, con i dati su cui si basa l’analisi, un cittadino italiano di origine straniera finisce in carcere erroneamente con probabilità doppia rispetto agli altri.

😕 “Uhm”

Il giudice pensa che probabilmente non si tratta di un problema dell’algoritmo. I suoi colleghi, ma probabilmente anche lui stesso, pensa con una certa stizza, non fanno molto diversamente.

Bisognerebbe essere più indulgenti con gente che è cresciuta in condizioni meno favorevoli… Come con il figliol prodigo.

Anche se questo alza i rischi di vedere reati reiterati nell’attesa del processo. L’opinione pubblica, lo sa bene, non la vedrebbe perlopiù favorevolmente questa impostazione.

🖥 “Abbiamo individuato una possibile soluzione”

Il documento prosegue.

Il giudice legge con più interesse. Soglie differenziate per le diverse categorie. I cittadini di origine straniera sono tenuti in carcera solo se il rischio risulta maggiore dell’85%. Quelli di origine italiana già se supera il 65%.

Il giudice pensa che non la prenderebbero bene in tanti. E però sembra vicino a quell’indulgenza per i più deboli. Il figliol prodigo.

🧐 Ma sarebbe equo? Quanti sono rimasti delusi per il finale della parabola del Vangelo? Quante aspettative di ricompensa, qui e ora, non nell’alto dei cieli, sarebbero deluse. Vite di sforzi per rimanere conformi alle leggi, alla morale, alle attese dei tuoi genitori e poi della società intera. Nonostante le tentazioni, le scorciatoie. E poi il figliol prodigo. Perdonato, festeggiato… Perso e poi ritrovato…

“Soglie diverse per compensare punti di partenza diversi”.

Sembra facile…

Garantire un accesso preferenziale non vincolato anche a un merito specifico…

Barattare un’equità con un’altra…

“Una soglia di tolleranza variabile è davvero equa?”, pensa il giudice mentre chiude il fascicolo e si toglie gli occhiali.

“O solo confonde una scorrettezza con un’altra?”

Si alza, prende il cappotto, lo indossa ed esce dalla stanza.

🗞 Da leggere questo articolo del MIT. Ci accompagna nei dilemmi di chi programma algoritmi per aiutare i giudici a prendere le loro decisioni.

Alla fine magistralmente mostra come le incongruenze non siano proprie dell’algoritmo, ma della tipologia di decisione in sé. Che tu sia il giudice alla ricerca di correttezza (fairness) o l’algoritmo che cerca di fornirla, ti trovi nella stessa condizione.

Quando i dati passati ti mostrano probabilità di comportamenti diversificati tra due categorie diverse, come i bianchi e i neri o gli uomini e le donne, ti ritrovi due strade possibili.

💥 O cambi le soglie di valutazione, rendendo più rigide e sfidanti quelle per il gruppo favorito dai dati passati, ma così rendendo iniqua la decisione in termini assoluti. O tieni la soglia di valutazione identica per tutti, ma portando a risultati iniqui verso il gruppo tradizionalmente svantaggiato.

Per capirci, se hai due studenti, uno bravo e uno un po’ meno portato per la materia, indipendentemente dalle ragioni (ambiente familiare, geni ereditati, compagnie frequentate, …), tieni due metri di valutazione diversi alzando l’asticella di quello che pretendi da quello bravo o no?

Tutto questo porta alla questione delle quote rosa, delle pari opportunità e così via.

🚀 L’analisi ha il merito di spostare la questione dall’alternativa “essere umano” vs “intelligenza artificiale” e invece sottolineare le sfide che una società fondata sull’equità si pone finalmente grazie ai dilemmi da affrontare esplicitati dagli algoritmi.

https://www.technologyreview.com/2019/10/17/75285/ai-fairer-than-judge-criminal-risk-assessment-algorithm/

--

--

Stefano Schiavo

Sharazad founder: Lean Business Strategy, Lean Startup, Design Thinking, Lean Thinking.