L'introduzione dell'Intelligenza Artificiale (IA) in decisioni importanti ha sollevato una grande quantità di dibattiti. Da un lato, l'IA è in grado di analizzare dati e prendere decisioni con velocità e scala ineguagliabili da qualsiasi essere umano. Dall'altro, gli errori, spesso gravi e dannosi, sono sempre dietro l'angolo.
Una soluzione proposta per mitigare i rischi dell'IA è l'integrazione di un "essere umano nel circuito" ("human in the loop"), ovvero un operatore umano incaricato di supervisionare e, se necessario, correggere le decisioni prese dall'algoritmo. Questo approccio, almeno in teoria, promette il meglio di entrambi i mondi: l'obiettività computazionale dell'IA unita alla capacità umana di esercitare discrezionalità e sensibilità contestuale.
Tuttavia, come evidenziato dallo studioso Ben Green e da altre ricerche recenti, questa soluzione si è rivelata tutt'altro che infallibile. Il problema principale risiede nel comportamento umano quando si trova a lavorare con un sistema automatizzato.
I limiti del controllo umano
Studi empirici mostrano che gli esseri umani tendono a sviluppare una fiducia eccessiva nei sistemi automatizzati, un fenomeno noto come "bias di automazione". Questo porta gli operatori a accettare acriticamente le decisioni dell'IA, anche quando queste contrastano con la propria esperienza e conoscenza. Ad esempio, un'indagine sulla polizia londinese ha rivelato che gli agenti sovrastimavano l'accuratezza del riconoscimento facciale automatizzato, ritenendolo tre volte più affidabile di quanto fosse realmente.
Inoltre, affidarsi all'IA può indebolire le competenze degli esperti umani. Quando ci si limita a valutare i risultati finali, senza affrontare il processo analitico completo, gli operatori perdono familiarità con i fattori che portano a una decisione. Paradossalmente, questa semplificazione rende il controllo più difficile e meno efficace.
Ma c'è di più: quando gli umani intervengono per modificare le decisioni dell'IA, lo fanno spesso in modo soggettivo e, talvolta, discriminatorio. Un esempio inquietante è l'analisi delle decisioni sui casi di affidamento dei minori, dove i giudici tendevano a sovrascrivere i consigli dell'IA in favore di genitori bianchi rispetto a quelli neri, perpetuando i bias che l'IA avrebbe dovuto mitigare.
Una falsa sicurezza
Green definisce questa situazione come un "effetto perverso". L'introduzione dell'IA con un supervisore umano può dare l'illusione di sicurezza e controllo, spingendo le organizzazioni a implementare sistemi automatizzati anche in contesti delicati. Allo stesso tempo, le responsabilità per eventuali errori vengono spesso trasferite sugli operatori umani, creando quella che alcuni esperti chiamano una "zona di responsabilità sfumata".
Dunque
L'idea di un essere umano nel circuito è certamente accattivante, ma nasconde profonde complessità. Affidarsi all'IA per correggere le imperfezioni umane richiede che gli stessi supervisori siano infallibili, il che è chiaramente irrealistico. Il rischio, come sottolinea Green, è che questa strategia venga utilizzata non per migliorare la giustizia e l'efficienza, ma per tagliare i costi a scapito dei più vulnerabili, con scuse pronte all'uso quando le cose vanno storte.
La vera sfida, quindi, è costruire sistemi in cui tecnologia e controllo umano si completino davvero, senza trasformare l'uno o l'altro in una copertura per fallimenti sistemici.
Nessun commento