L’Intelligenza Artificiale è poco inclusiva? “Riflette bias e pregiudizi di un settore a prevalenza maschile”

L'Intelligenza Artificiale è già presente nella vita quotidiana di ognuno di noi, in diversi settori come la salute e la sicurezza. Il tema se sia inclusiva o meno è quindi fondamentale. Vi spiego perché

I dati parlano chiaro: l'AI - Artificial Intelligence - è un settore a prevalenza maschile.

Una ricerca di Eige, European Institute for Gender Equality, attesta che in Europa e nel Regno Unito solo il 16% delle persone che lavorano nel campo dell’AI sono donne e, a mano a mano che si va avanti con la carriera, il gender gap è ancora più evidente: solo il 12% ha più di 10 anni di esperienza

Insomma, l'Intelligenza Artificiale non è così equa come sembra. E questa è solo la punta dell’iceberg di un settore, quello della tecnologia più in generale, poco inclusivo e che spesso rischia di perpetuare vecchi stereotipi.

Ma come si può migliorare il rapporto tra genere e tecnologia?

VEDI ANCHE L’intelligenza artificiale è una questione femminista? Intervista alla ricercatrice Diletta Huyskes CultureL’intelligenza artificiale è una questione femminista? Intervista alla ricercatrice Diletta Huyskes

Secondo Giuneco, software house ideatrice del Dorothy Program, il progetto che combatte il gender gap nell’universo tech, bisogna correggere i bias per rendere più inclusivo il mondo dell’AI.

«Si è soliti pensare alla tecnologia come a uno strumento neutro, al riparo da stereotipi perché lontano dalla coscienza e dagli impulsi umani dei pensieri prettamente soggettivi. In realtà la discriminazione e i pregiudizi di genere (ma non solo) sono troppo spesso insiti in queste nuove tecnologie - afferma Giulia Nocchi, Marketing e Communication Specialist di Giuneco - Per esempio, se un data-set utilizzato per addestrare un software per la gestione del processo di recruiting in azienda (ATS, Applicant Tracking System) è caratterizzato da una maggioranza di curriculum in cui le parole utilizzate dai candidati per descriversi sono al maschile, è evidente che il sistema non riconoscerà i cv in cui queste stesse parole compaiono al femminile. Anche se adeguate e in linea con la job description questo sistema pone le candidate in fondo alla classifica di selezione o addirittura le respinge».

Una questione che pone il problema della poca attenzione a come i dati sono raccolti e organizzati nei data-set utilizzati per l’addestramento degli algoritmi.

Proprio per questo motivo, l’intelligenza artificiale non appare affatto neutrale come ci si può aspettare, anzi rispecchia il contesto della società attuale che fatica a celebrare una parità di genere senza discriminazioni, più composita e rappresentativa della realtà

«Di che cosa ci parlano questi fenomeni? Niente di nuovo, purtroppo, ma mettono ancora una volta in risalto quanto immenso lavoro ci sia da fare per raggiungere una vera parità di diritto per abbattere quei pregiudizi che sono talmente insiti ed interiorizzati nella nostra società da sorprenderci per quanto siano potenti e deleteri - continua Giulia Nocchi - L’utilizzo non consapevole dell’Intelligenza Artificiale può mettere in evidenza le iniquità che ci circondano. Non sono gli algoritmi a discriminare, ma siamo noi a nutrirli con set di dati che, riflettendo la situazione esistente in molteplici realtà, rappresentano un mondo in cui la discriminazione è ancora diffusa».

Ma cosa si può fare per uscire da questi circoli viziosi?

La comunità scientifica si sta concentrando sull’interpretabilità dei risultati, ovvero sul capire come mai il modello restituisca un certo output. Al momento, questi non sono altro che delle “black box” a cui viene fornito un input e restituito un output, senza sapere esattamente quali siano tutti i passaggi interni che hanno portato proprio a quel determinato risultato, anche se è corretto.

«Nel frattempo, ciò che possiamo fare in prima persona è formare professioniste e professionisti sull’etica del processo, in questo modo sarà più immediato comprendere i limiti dei dati e “maneggiarli” con cura e consapevolezza - continua Federico Teotini, Software Engineer di Giuneco - Introdurre procedure che regolamentino i processi di verifica, validazione e certificazione, può essere il secondo step per dare una maggior garanzia di correttezza».

Risolvere questa sfida potrebbe portare a nuovi metodi che cambieranno il modo in cui viene sviluppata l’AI e quindi anche a soluzioni scientifiche per tutti i modelli che presentano “comportamenti” discriminatori.

L’impegno di Giuneco per le donne nel settore Stem

Per favorire l’inclusione delle donne nel mondo tech e ridurre il gender gap, Giuneco ha dato vita al Dorothy Program, un percorso che aiuta giovani ragazze e donne a farsi strada nel mondo delle Stem.

In che modo?

Attraverso interventi e interviste a donne esperte nel mondo tech che possano essere un punto di riferimento e di coinvolgimento per chi si sta affacciando in questo settore, laboratori nelle scuole per mostrare le potenzialità di un settore in crescita e supporto nel mondo del lavoro attraverso borse di studio.

L’empowerment e la forza delle donne anche nel settore tecnologico, la parità di genere, la valorizzazione femminile, sono sempre più un tema fondamentale. Ma è compito di ognuno di noi e della società garantire il valore dell'inclusione.

Riproduzione riservata