Introduzione

Negli ultimi anni, la società si è confrontata con un problema critico nell’ambito dell’Intelligenza Artificiale (IA): l’influenza pervasiva dei bias umani nei sistemi di IA e le potenziali conseguenze dannose. Mentre le imprese abbracciano sempre di più la tecnologia dell’IA in vari aspetti delle loro operazioni, diventa imperativo riconoscere e combattere questi bias. Questo articolo esplora l’ardua sfida del bias nell’IA, tracciando le sue radici storiche ed esaminando le sue manifestazioni contemporanee. Inoltre, delineerà un approccio completo che i leader aziendali e le organizzazioni possono adottare per affrontare efficacemente i bias nei sistemi di IA.

La Prospettiva Storica

Il problema del bias nell’IA non è uno sviluppo recente. Un esempio risale al lontano 1988 quando una scuola di medicina britannica fu ritenuta colpevole di discriminazione nel suo processo di ammissione. La scuola impiegava un programma informatico per determinare quali candidati sarebbero stati invitati per i colloqui, un programma che, sorprendentemente, rifletteva i bias esibiti dai decision maker umani. Questo scenario dimostra che il semplice utilizzo di algoritmi non elimina intrinsecamente i bias radicati nel giudizio umano. Pertanto, tornare ai decision maker umani non avrebbe fornito una soluzione definitiva.

Passando al giorno d’oggi, gli algoritmi di IA sono diventati notevolmente più complessi. Tuttavia, la sfida del bias persiste. In alcuni casi, l’IA può addirittura aggravare il problema amplificando i bias su larga scala, specialmente in ambiti applicativi sensibili.

 Comprendere le Radici dei  Bias nell’IA

I bias possono infiltrarsi nei sistemi di IA attraverso varie vie. Questi sistemi apprendono dai dati di addestramento, che possono contenere bias intrinseci nelle decisioni umane o riflettere iniquità storiche e sociali, anche se le variabili sensibili esplicite come genere, razza o orientamento sessuale sono escluse. Un esempio eloquente è l’algoritmo di assunzione di Amazon, che favoriva i candidati che utilizzavano parole come “eseguito” o “catturato”, più frequentemente presenti nei curriculum maschili. Inoltre, il campionamento errato dei dati può portare a una sovra-rappresentazione o sotto-rappresentazione di determinati gruppi nei dati di addestramento, generando risultati distorti. Ad esempio, le tecnologie di analisi facciale hanno mostrato tassi di errore più elevati per i gruppi minoritari, in particolare le donne appartenenti a minoranze, a causa di dati di addestramento non rappresentativi.

La Responsabilità Collettiva

Affrontare i bias nell’IA è una responsabilità condivisa. Non danneggia solo le persone soggette a discriminazione, ma ostacola anche la partecipazione sociale ed economica, minando il potenziale dell’IA per le imprese e la società. I leader aziendali hanno la responsabilità di garantire che i sistemi di IA superino il giudizio umano e devono promuovere attivamente la ricerca e gli standard che mitigano i bias nell’IA.

Due Imperativi per l’Azione

Dalla vasta ricerca accademica sul bias nell’IA emergono due imperativi cruciali: 

Sfruttare l’IA per Migliorare la Presa di Decisioni: L’IA offre un vantaggio unico nel migliorare la tradizionale presa di decisioni umane. I sistemi di apprendimento automatico ignorano variabili irrilevanti, una sfida spesso difficile per gli esseri umani che potrebbero non essere consapevoli dei fattori che influenzano le loro decisioni. Inoltre, l’IA può facilitare l’identificazione di bias umani latenti e può portare a “vantaggi disparati derivanti da previsioni migliorate”, migliorando le opportunità per gruppi tradizionalmente svantaggiati.

Accelerare i Progressi nella Mitigazione del Bias: Affrontare i bias nell’IA è un’impresa complessa e non esistono soluzioni rapide. Una sfida chiave è definire e misurare la “equità”. Diverse definizioni di equità spesso entrano in conflitto, rendendo difficile la soddisfazione simultanea. Tuttavia, i ricercatori hanno fatto progressi nello sviluppo di tecniche per garantire che i sistemi di IA rispettino le definizioni di equità. “Equità controfattuale” è uno di questi approcci promettenti, che assicura risultati decisionali coerenti anche in scenari ipotetici in cui le attribuzioni sensibili sono modificate.

Sfide al di là delle Soluzioni Tecniche

Mentre le soluzioni tecniche sono essenziali, altre sfide richiedono un approccio multidisciplinare, coinvolgendo eticisti, scienziati sociali e pensatori delle scienze umane. Queste sfide includono la determinazione del momento in cui un sistema di IA è sufficientemente equo per essere implementato e l’istituzione di linee guida per le situazioni in cui dovrebbe essere permessa la decisione completamente automatizzata.

Sei Passaggi Essenziali per i Leader Aziendali

Per guidare la lotta contro i bias e promuovere l’equità nell’IA, i CEO e i team di alta direzione dovrebbero considerare i seguenti sei passaggi essenziali:

Rimanere Informati: Restare aggiornati sulle ultime ricerche sul bias nell’IA sfruttando risorse come i rapporti annuali dell’AI Now Institute, il Partnership on AI,il gruppo Fairness, Transparency, Privacy dell’Alan Turing Institute e anche community e network come Singularity University. 

Stabilire Processi Responsabili: Implementare processi che mitigano i bias durante l’implementazione dell’IA, tra cui una serie di strumenti tecnici e pratiche operative come “red team” interni e audit di terze parti.

Coinvolgersi in Conversazioni Basate su Fatti: Utilizzare strumenti avanzati per esaminare i bias nei sistemi di IA e utilizzare questi risultati per elevare gli standard della decisione umana. Gli algoritmi possono essere eseguiti insieme ai decision maker umani, confrontando i risultati e utilizzando tecniche di spiegazione per individuare la logica decisionale.

Abbracciare la Collaborazione tra Esseri Umani e Macchine: Sviluppare sistemi “human-in-the-loop” che consentano agli esseri umani di verificare le raccomandazioni dell’IA, con indicatori trasparenti di fiducia per guidare i decision maker.

Investire nella Ricerca sui Bias: Allocare risorse e dati per la ricerca sul bias, adottando un approccio multidisciplinare nel rispetto delle preoccupazioni sulla privacy. Favorire la diversificazione della comunità di IA per migliorare la capacità di riconoscere e affrontare i bias e coinvolgere le comunità interessate.

Sostenere la Diversità nell’IA: Investire nell’istruzione e nelle opportunità per diversificare il campo dell’IA, poiché una comunità di IA più inclusiva sarà meglio attrezzata per riconoscere e mitigare i bias e collaborare con le comunità interessate.

Esempi Concreti di Bias nell’IA

Bias nell’Assistenza Sanitaria degli Stati Uniti

Nell’ottobre 2019, i ricercatori hanno approfondito un algoritmo utilizzato negli ospedali degli Stati Uniti per prevedere quale paziente necessitasse di cure mediche aggiuntive. Questo algoritmo mostrava un notevole bias a favore dei pazienti bianchi rispetto a quelli neri. Nonostante l’etnia non fosse una variabile direttamente considerata, l’algoritmo teneva conto della storia dei costi sanitari, che era strettamente correlata all’etnia di provenienza. L’algoritmo assumeva che costi sanitari più elevati indicassero una maggiore necessità di cure mediche, favorendo in modo sproporzionato i pazienti di etnia white americans. Fortunatamente, attraverso una collaborazione con Optum, i ricercatori sono riusciti a ridurre i bias dell’80%, mettendo in evidenza la necessità di una vigilanza continua.

L’Algoritmo COMPAS

Uno dei casi più noti di bias nell’IA riguarda l’algoritmo COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) utilizzato nei sistemi giudiziari degli Stati Uniti per prevedere la probabilità che un imputato diventi un recidivo. A causa di dati distorti, scelte modellistiche e del processo di creazione dell’algoritmo, quest’ultimo ha previsto il doppio dei falsi positivi per la recidiva tra gli imputati afro-americani (45%) rispetto ai white americans (23%).

L’Algoritmo di Assunzione di Amazon

Anche i giganti tecnologici come Amazon non sono immuni al bias nell’IA. Nel 2015, Amazon ha riconosciuto che il suo algoritmo di assunzione manifestava un bias di genere, favorendo i candidati maschi. L’algoritmo si basava su un decennio di curriculum presentati, prevalentemente da candidati maschi, portando involontariamente a un bias di genere.

Lezioni Apprese e Strategie per Mitigare i bias nell’IA

Affrontare i bias nell’IA è una sfida considerevole, ma è un requisito imprescindibile per l’implementazione etica dell’IA. Per ridurre i bias e per avere un buon punto di partenza, potremmo considerare questi approcci:

Rappresentare “Ciò che Dovrebbe Essere”, Non “Ciò che È”: I dati utilizzati per addestrare i modelli di IA dovrebbero cercare di rappresentare una realtà priva di bias. Benché dati casuali possano intrinsecamente contenere bias, misure proattive devono garantire una rappresentazione equa, mitigando la discriminazione verso gruppi specifici. Ad esempio, nel caso dell’algoritmo di assunzione di Amazon, dati bilanciati avrebbero potuto ridurre i bias di genere.

Imporre la Governance dei Dati: Implementare la governance dei dati e creare team interni di conformità per far rispettare pratiche modellistiche etiche. Audit regolari, simili all’approccio di Obermeyer, possono garantire lo sviluppo etico dei modelli di IA.

Valutazione da Parte di Gruppi Sociali: Quando si valutano i modelli di IA, esaminare metriche come la precisione vera e il tasso di falsi positivi tra diversi gruppi sociali, tra cui genere, etnia ed età. Ciò assicura l’equità nei risultati dell’IA.

Conclusioni

L’Intelligenza Artificiale ha il potenziale per rivoluzionare le imprese, l’economia e la società nel suo complesso. Tuttavia, questa trasformazione può realizzarsi solo se i sistemi di IA sono affidabili nel produrre risultati imparziali. Affrontare i bias nell’IA non è solo una sfida tecnologica ma anche un obbligo morale ed etico collettivo. I leader aziendali devono adottare misure proattive per ridurre i bias nell’IA e promuovere l’equità, aprendo la strada a un futuro più equo e giusto in cui l’IA serva tutta l’umanità.

Singularity University Milan Chapter ne parlerà, in live streaming e attraverso la sua WebAPP, martedì 28 settembre alle ore 18:00 il Chapter di Milano di Singularity University, insieme ad IBM, tratterà  della tematica del cambiamento grazie all’AI, connesso al mondo del lavoro, nel prossimo evento del 28 settembre, in compagnia di:

Rand Nezha, Esperta di Digital Data e Intelligenza Artificiale
Alessandra Santacroce, Government and Regulatory Affairs Executive, IBM Italy – Presidente Fondazione IBM Italia

Modera l’incontro David Orban, Advisor & Faculty di Singularity University.

Per iscriverti gratuitamente clicca qui

https://app.singularityumilan.com/event/incontro-53/info

Foto di Md Shahin Alom da Pixabay