L’intelligenza artificiale può amplificare le discriminazioni di genere presenti nella società?
La risposta è positiva. La stampa ha dato ripetutamente notizia di casi eclatanti quali l’algoritmo che ha negato l’accesso agli armadietti femminili di una palestra a una donna, identificandola per errore come uomo.
Ma esistono forme ben più raffinate di discriminazione, quali i sistemi di selezione dei curricula che usano l’intelligenza artificiale e che spesso, pur senza dichiararlo esplicitamente, penalizzano i candidati in base al genere.
Perché la discriminazione esiste?
Perché questo accade? La ragione è presto detta: la progettazione degli algoritmi. I dati utilizzati per addestrare i sistemi spesso contengono bias, che possono essere inseriti involontariamente o intenzionalmente.
Ciò è dovuto anche al fatto che i programmatori che lavorano nel settore dell’IA sono, nella stragrande maggioranza, uomini il che influenza, anche inconsciamente, l’amplificazione delle discriminazioni di genere. Gli algoritmi riflettono i dati e, se questi contengono pregiudizi, gli algoritmi li replicano quando non, addirittura, li amplificano.

Le discriminazioni si verificano sia in forma diretta, quando l’algoritmo esclude le persone in base al genere (i sistemi di ricerca del personale che scartano automaticamente le donne in settori tradizionalmente maschili) ma anche in forma indiretta, più difficile da individuare.
Caso classico i risultati nei motori di ricerca. Digitando CEO, il risultato sono quasi tutte immagini di uomini, riflettendo e rinforzando la convinzione che tale ruolo sia esclusivamente maschile quando invece sempre più donne raggiungono quella posizione.
Anche per incidere sulle discriminazioni derivanti dall’uso dell’IA, l’Unione Europea ha adottato l’AI ACT, un Regolamento volto ad assicurare trasparenza e responsabilità nell’uso dell’intelligenza artificiale.
Cos’è l’AI ACT
L’approccio dinamico contenuto nel Regolamento, che rende le norme velocemente modificabili in relazione ai progressi tecnologici, garantisce che i sistemi di intelligenza artificiale rispettino i diritti fondamentali fra i quali, appunto, il principio di non discriminazione. Tutto ciò sulla base della profonda convinzione che l’IA non è, di per sé, né cattiva né buona ma riflette la società che la programma: per avere una società più giusta e più equa, vanno allora progettati sistemi che non solo non portino avanti le discriminazioni che già esistono ma che, anzi le contrastino attivamente.
Esistono già esempi virtuosi in tal senso. Uno su tutti: DomesticAI, un’intelligenza creata per ripartire le attività domestiche, progettando un’equa distribuzione dei compiti all’interno della famiglia ed evitando così che i carichi di cura gravino quasi esclusivamente sulle donne che, in questo modo, potranno partecipare più attivamente al mercato del lavoro, non vedendosi costrette a restare a casa o a scegliere il part-time perché altrimenti impossibilitate a conciliare vita e lavoro.