di Inés El Gataa
Matematica specializzanda in Machine Learning e Deep Learning
Oggigiorno sentiamo parlare di Intelligenza Artificiale (AI), in ogni materia e qualsiasi settore.
Basti pensare l’impatto che l’AI ha: da usi più semplici come lo screening dei cv, la guida autonoma, l’assistenza sanitaria, a più complessi, vedi riconoscimento biometrico, rilevazione di malattie croniche e simulazioni di sistemi complessi.
L’AI è una delle parole più inflazionate nel web e qualsiasi automatizzazione oggi giorno viene citata come tale, ma la sua complessità è più vasta della sua diffusione.
Vediamo che cos’è
L'intelligenza artificiale non è nient’altro che la branca multidisciplinare di informatica e statistica che si occupa dello sviluppo di algoritmi che cercano di riprodurre e superare l’intelligenza umana.
L'obiettivo è creare macchine che siano in grado di eseguire compiti che solitamente richiedono l'essere umano, come il riconoscimento di pattern, la risoluzione di problemi, l'apprendimento, la comprensione del linguaggio naturale e la percezione sensoriale.
Un modello viene inizialmente costruito partendo da un dataset, senza i quali non si potrebbe procedere.
Una volta raccolti i dati questi devono essere elaborati, ovvero puliti e strutturati. Un buon modello si basa su dati chiari ed efficienti per le analisi. Il concetto di chiarezza ed efficienza sono più complessi e andrebbero approfonditi ulteriormente, ma ai fini esplicativi dell’articolo lo faremo in un secondo momento.
Successivamente si sceglie il modello di intelligenza artificiale in base alle esigenze e alla struttura del caso specifico.
Una volta scelto, questo viene addestrato sui dati precedentemente aggiustati; quindi, viene insegnato al modello a compiere un determinato calcolo/azione.
Si insegna alla macchina da zero.
Successivamente, il modello che sarà inizialmente capace di compiere una determinata azione (considerando quindi soddisfacente l’adattamento/errore ai dati), viene testato su un altro dataset, diverso dal primo, per valutare le performance e l’accuracy, cioè la precisione delle risposte.
Ovviamente ci sono molti più accorgimenti e dettagli da tenere in considerazione e step più tecnici, anche il metodo di creazione può differire.
Data anche la diffusione di questo strumento, il problema nasce nel momento in cui i dati originali di partenza sono distorti, ovvero “biased”.
L’AI come abbiamo detto finora è il prodotto dell’ingegneria umana, riproduce e amplifica tutti quelli che sono i concetti e le strutture mentali del soggetto.
Se la persona è biased l’algoritmo sarà biased.
Per esempio, se insegno all’algoritmo che l’ingegneria è principalmente un lavoro per uomini, allora l’algoritmo quando interrogato si baserà sulla convinzione che l’ingegnere è uomo. Oppure l'uso di algoritmi discriminatori può amplificare le disuguaglianze esistenti, influenzando decisioni importanti in settori come il finanziario, l'occupazione e la giustizia.
Dunque, eredita gli stessi pregiudizi e preconcetti.
I dati utilizzati per addestrare i modelli di AI sono spesso raccolti da contesti sociali che riflettono i pregiudizi culturali esistenti.
Ad esempio, se i dati storici indicano disuguaglianze razziali in un determinato settore, l'AI potrebbe apprendere e perpetuare tali disuguaglianze, creando un circolo vizioso.
E quindi se un sistema di AI viene addestrato principalmente su dati di un gruppo etnico specifico, potrebbe mostrare difficoltà nel comprendere e rispondere alle esigenze di altri.
Questo è applicabile anche a questioni religiose, le donne che portano l’hijab hanno un grado di riconoscimento più basso rispetto alle donne senza, semplicemente per il fatto che il modello non è stato allenato a riconoscerle (e le donne in generale vengono riconosciute, sia livello vocale che biometrico, con più difficoltà rispetto agli uomini).
È importante sottolineare che nelle materie informatiche la percentuale di donne è estremamente minore a quella maschile (nel mondo cloud è solo dell’8%) e la componente musulmana in questa percentuale è a sua volta più piccola.
Un’altro problema sorge nella conoscenza della religione da parte di chi non è musulmano: un modello addestrato da un non musulmano rischia di fornire risposte su temi religiosi fortemente scorrette, fornendo fonti errate o scollegate.
Ora immaginatevi gli esempi di applicazione citati precedentemente e applicateli ai vari contesti lavorativi e non.
Il cervello umano non è in grado di ragionare per esponenziali ma la macchina sì. Di conseguenza non avendo la percezione di cos’è un errore itera lo stesso svariate volte.
Inoltre, l’AI dà legittimità ai bias facendoli sembrare oggettivi, le persone imparano a vedersi in un contesto anche tramite le immagini.
Va comunque precisato che l’AI non è “solo male”, se usato correttamente può essere di supporto per molti aspetti, dal tajweed, alla memorizzazione del Corano, a tanto altro…
La tecnologia non è sempre infallibile ed oggettiva, un buon algoritmo è uno strumento estremamente potente e non va assolutamente demonizzato anzi va sfruttato al massimo ed incluso per svariati motivi in ciò che facciamo.
Bisogna però imparare a stare attenti a come vengono costruiti e come usiamo questo strumento.
Il progresso tecnologico come ogni altro progresso comporta estremi benefici ma altrettanti rischi che, però, non devono bloccarci dall'utilizzare queste novità, bensi’ dobbiamo imparare a controllare e mitigare gli errori.
Il problema nasce principalmente dalla mancanza di rappresentazione delle minoranze nei contesti tech(che di conseguenza non hanno voce in capitolo).
La maggior parte dei professionisti che sviluppa algoritmi e modelli di apprendimento automatico appartiene a gruppi demografici e religiosi specifici, il che può portare a una prospettiva limitata durante la progettazione e l'implementazione di tali sistemi.
La mancanza di rappresentanza può contribuire alla creazione involontaria o volontaria di bias.
La soluzione deve essere multi-prospettica ovvero quella di cercare di aumentare la rappresentanza di tali categorie emarginate o creare alternative a quelle che sono le soluzioni biased già esistenti.
Bisogna migliorare i dati con cui vengono trainati (addestrati) i modelli, renderli più chiari agli studi ed eventuali controlli e soprattutto bisogna spingere per un regolamento equo.
E successivamente anche aumentare l’accountability (responsabilità) delle aziende tech, che devono rendere conto dei risultati scorretti e di conseguenza del loro utilizzo.
Questa è solo una breve introduzione di cos’è l’AI e quali sono i contesti in cui opera, ci sono molti più approfondimenti e specificazioni che andrebbero fatti.
Per qualsiasi chiarimento potete scrivere a me o direttamente alla pagina promus.
Fi amanillah!
AUTORE:
Inés El Gataa
Matematica specializzanda in Machine Learning e Deep Learning