Il 20 giugno scorso ho partecipato, presso l’aula magna del Dipartimento di ingegneria informatica, automatica e gestionale dell’Università La Sapienza di Roma, ad un evento dal tema “IA e occupazione femminile: Opportunità e minacce” organizzato con la collaborazione di “Noi Rete Donne”. Di seguito riporto alcuni spunti del mio intervento.
La tecnologia, in particolare l’IA, sta trasformando radicalmente il mondo del lavoro, e dobbiamo assicurarci che questo cambiamento non perpetui o amplifichi le disuguaglianze di genere esistenti.
L’IA è spesso presentata come uno strumento in grado di migliorare la nostra capacità decisionale grazie alla sua capacità di analizzare grandi quantità di dati. Tuttavia, come evidenziato in un articolo di Teresa Numerico, questa dipendenza dai dati comporta il rischio di riprodurre e amplificare le discriminazioni esistenti. Questo accade perché i dati riflettono le disuguaglianze sociali e storiche di genere, razza e classe presenti nel mondo reale.
Nel 2018, Joy Buolamwini e Timnit Gebru hanno dimostrato che i sistemi di riconoscimento facciale erano meno accurati nel distinguere i volti delle donne afroamericane. Questo è solo uno dei tanti esempi di come l’IA può manifestare bias discriminatori se i dati di addestramento sono parziali o inaccurati. Questi sistemi, se non controllati, possono perpetuare stereotipi e disuguaglianze, danneggiando in particolare le donne e altri gruppi marginalizzati.
L’introduzione dell’IA nel mercato del lavoro ha il potenziale di rivoluzionare vari settori, ma presenta anche rischi significativi per l’occupazione femminile. Storicamente, le donne sono state sovrarappresentate in professioni ad alto rischio di automazione, come quelle nei settori amministrativo e di servizio clienti. Inoltre, gli algoritmi di selezione del personale, se addestrati su dati storicamente discriminatori, possono continuare a preferire candidati maschi per ruoli tecnici e di leadership, esacerbando le disparità di genere.
Per evitare che l’IA perpetui queste disuguaglianze, è essenziale implementare strategie di controllo e correzione dei dati. Tuttavia, come osserva Teresa Numerico, modificare i dati di addestramento può essere problematico. Emendare i dati senza trasparenza può portare a risultati arbitrari e potenzialmente ingiusti. Pertanto, è fondamentale che i processi di correzione dei dati siano trasparenti e coinvolgano una pluralità di prospettive, inclusi esperti di genere e rappresentanti delle comunità colpite.
Per costruire un futuro dove l’IA contribuisca a ridurre le disuguaglianze di genere, dobbiamo:
- Garantire la Trasparenza:Implementare processi decisionali trasparenti e rendere chiari i criteri utilizzati dagli algoritmi.
- Coinvolgere le Comunità:Assicurare che le comunità colpite dalle decisioni algoritmiche abbiano voce in capitolo nel processo di sviluppo e revisione degli algoritmi.
- Promuovere l’Educazione:Incentivare la formazione in campo tecnologico per le donne, assicurando che abbiano le competenze necessarie per partecipare pienamente alla rivoluzione digitale.
- Adottare Politiche di Diversità:Le aziende tecnologiche devono adottare politiche di diversità e inclusione per garantire che i team di sviluppo siano rappresentativi della società.
In conclusione, mentre l’IA offre opportunità senza precedenti, dobbiamo essere vigili per evitare che amplifichi le disuguaglianze esistenti. Attraverso politiche mirate e una vigilanza costante, possiamo costruire un futuro in cui l’IA contribuisca a un mondo del lavoro più equo e inclusivo per tutti, specialmente per le donne.
Antonio Naddeo