Lo strano caso dell’IA applicata agli scuolabus di Boston

Lo strano caso dell’IA applicata agli scuolabus di Boston

Sto leggendo un libro divulgativo sull’IA (Intelligenza Artificiale) applicata all’apprendimento – il libro e’ questo “Artificial Intelligence for Learning – How to use AI to support employee development” di Donald Clark per Kogan Page. Ho conosciuto Donald Clark, grazie alle conferenze organizzate da Media and Learning: i suoi contributi sono sempre stati acuti e un po’ controcorrente, cosi’ ho cominciato a seguire anche il suo blog Plan B cosi’ quando ha annunciato il suo libro l’ho preso sulla fiducia. Sono ancora alle prime pagine e quindi questa non è recensione sul libro ma una storia che ho scoperto grazie ad una traccia sul libro.

Nel capitolo dedicato all’IA a supporto dell’organizzazione scolastica si affrontano temi come gli orari ed il trasporto scolastico. Clark cita come buona pratica di uso dell’IA il caso di Boston che grazie ad un algoritmo sviluppato dal MIT ha risparmiato 5 milioni di dollari, riducendo emissioni e ottimizzando i percorsi. Grazie all’algoritmo, sono stati eliminati 50 percorsi, i bus sono più pieni e la pianificazione richiede 30 minuti anziché settimane. I 5 milioni risparmiati sono stati reinvestiti nelle attività scolastiche.

Per una serie di ragioni, la storia mi ha incuriosito e ho approfondito: dai riferimenti nel libro sono risalita a questo articolo How One City Saved $5 Million by Routing School Buses with an Algorithm che riporta quanto già citato nel libro: 25 mila studenti trasportati, 220 scuole servite con orari di ingresso fra le 7.15 e le 9.30. Nel 2017 il costo per studente era di 2000$ e e la complessità del trasporto in aumento, con migliaia di variabili da gestire- inclusi i 5000 studenti con disabilità da accompagnare porta a porta. Poiché il mercato non offriva soluzioni, la città lanciò una challenge – una competizione con 15000$ di premio – per trovare una soluzione ad un problema molto complesso, che è studiato dagli anni 60.

La soluzione adottata dai vincitori cambiava l’approccio al problema:

“Gran parte del successo dell’algoritmo deriva dal fatto che esso adotta un approccio a livello di sistema, invece di instradare in modo indipendente le singole scuole e quindi collegare tra loro tali percorsi. Invece, l’algoritmo assegna agli studenti delle fermate, mette le fermate in modo da non fare il giro di nessuno studente per più di un’ora, e poi adotta un approccio di instradamento multi-scuola. La soluzione migliore, quindi, non è quella che utilizza il minor numero di autobus per ogni scuola, ma quella che ricicla più efficacemente gli autobus sui percorsi verso più scuole, e la soluzione utilizza una programmazione integrale flessibile che permette al distretto di adattarsi al cambiamento delle politiche”

L’articolo prosegue con altri risvolti che nel libro non sono menzionati e un piccolo colpo di scena (per me): li vantaggi portati dal nuovo “algoritmo” (maggiore efficienza e risparmi) non sono stati accolti con favore dai cittadini.

Dopo 30 anni per la prima volta si proponeva di modificare gli orari di ingresso delle classi impattando sull’85% degli studenti. I ricercatori avevano rilevato che le fasce orarie più comode erano riservate agli studenti con reddito più alto. Nella soluzione proposta gli studenti adolescenti non avrebbero iniziato le lezioni prima delle 8 (la scienza dice che prima delle 8 l’apprendimento dei teen ager non è ottimale), si proponeva scambiare le fasce di ingresso fra scuole primarie e secondarie e limitava i privilegi nelle fasce di ingresso. Questo avrebbe portato solo il 6% degli adolescenti ad entrare presto a scuola, contro il 74%.

Ma la proposta non e’ mai diventata operativa. Le famiglie si sono opposte e nonostante successivi aggiustamenti e il gestore del trasporto rinunciò ad implementare quel modello.

La questione meritava ancora approfondimenti… Joy Ito è un ricercatore del MIT che si occupa di innovazione ed il suo articolo su wired e sul sito MIT è come sempre molto saggio. Nell’articolo leggiamo che anche lui si era inizialmente schierato con le famiglie attiviste, prima di parlare con gli sviluppatori. Ecco cosa scrive:

Anche se non sono sicuro che le famiglie privilegiate rinuncerebbero ai loro buoni orari di partenza per aiutare volontariamente le famiglie povere, penso che se le persone avessero capito che l’algoritmo che ottimizza la salute dei ragazzi delle scuole superiori, che porta a casa i bambini delle elementari prima del tramonto, che sostiene i bambini con bisogni speciali, che abbassa i costi e che aumenta l’equità in generale, sarebbero d’accordo sul fatto che il nuovo programma è, nel complesso, migliore del precedente. Ma quando qualcosa diventa personale molto improvvisamente, la gente si sente forte e protesta.

Questo è un punto chiave: quando le persono sono toccate nel personale è difficile che si comprendano i vantaggi complessivi e in questo caso c’era un’aggravante: avere usato una tecnologia percepita come una “scatola nera”. Ancora Joy Ito scrive:

I compromessi necessari per migliorare il sistema complessivo non erano chiari e i potenziali guadagni sembravano vaghi rispetto all’impatto molto specifico e personale dei cambiamenti che li hanno interessati. E quando il messaggio è arrivato al telegiornale notturno, la maggior parte dei dettagli e il quadro generale si sono persi nel rumore.

Perchè questa storia mi è sembrata interessante? la narrativa dell’IA vede si basa sul concetto che il “bias ” dell’algoritmo e’ sempre in chiave negativa (volti non riconosciuti per il colore della pelle, persone innocenti condannate, ecc) e questo era il primo caso di “bias” che tentava di implementare una maggiore equità (anche se è difficile capire quando non si conoscono tutti i risvolti.. in uno degli articolo le famigli sostenevano che i bambini piccoli rientrando prima mettevano in difficoltà le famiglie povere che avrebbero dovuto pagare le baby sitter).

In secondo luogo perché bisogna imparare a fare bene le domande, altrimenti le risposte possono non piacere – come in tutte le storielle del genio della lampada che esaudisce desideri mal posti e la questione diventa politica. Questioni complesse, soprattutto quando riguardano le persone non possono essere gestite/risolte in modo puramente “razionale” e se le azioni che cambiano lo status quo, trovano sempre più contrari che favorevoli, spesso è perché anche partendo da buoni intenti, non si riescono a prevedere gli impatti sulle singole vite. Per questo è sempre necessario il coinvolgimento delle persone (tutte) e sono diverse le metodologie consolidate per farlo come i living lab, il design thinking, ecc.

Tornando al libro, Clark qualche pagina più avanti affronta il concetto dei “bias” negli algoritmi e come tutti invoca la necessità di trasparenza, ma ribalta la situazione dicendo che l’IA potrebbe aiutare a superare quelli delle persone e cita le discriminazioni – a volte inconsce – verso le ragazze, le profezie autorealizzanti, il superamento di teorie infondate come quella degli stili di apprendimento, grazie all’uso di evidenze (ovvero dati)…ma anche i dati, come sappiamo non dicono sempre tutta la verità, come ci insegna Caroline Criado Perez nel suo ottimo libro ‘Invisibili. Come il mondo ignora le donne. Dati alla mano’….

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.