Netflix ha impiegato tre anni e mezzo per raggiungere il primo milione di utenti, Facebook 10 mesi e ChatGPT solo 5 giorni. Oggi conta 200 milioni di utenti. In un mondo sempre più veloce, abbiamo fretta di usare l’intelligenza artificiale per restare al passo.
Fretta di usarla, ma siamo anche frettolosi nel suo utilizzo. Infatti, la durata media di una interazione con ChatGPT è di 1 minuto e 12 secondi. Su Amazon ci fermiamo 7 minuti, su Instagram 8. Spendiamo più tempo a ordinare una T-shirt o a compulsare post e storie che a interagire con l’AI.

ChatGPT e la risposta giusta

Se ci serve una sintesi rapida o un aiuto veloce, ChatGPT è perfetto. Oppure, quando abbiamo bisogno di un’immagine d’effetto per un post o una presentazione, usiamo software AI di generazione immagini (Stable Diffusion, DALLE-2, Midjourney, HotPot AI). Inseriamo il testo e voilà, l’immagine appare. Un rapido sguardo e pensiamo: “È quella giusta!”. Ma lo è davvero?
Secondo alcuni ricercatori, la risposta è no. Anna Maria Gorska e Dariusz Jemielniak hanno chiesto all’AI di generare immagini di medici, avvocati, ingegneri e scienziati.

Risultato? Il 91% delle immagini erano di uomini. La rappresentanza femminile peggiore è stata quella dei medici, nonostante le donne costituiscano quasi metà della professione.
Durante la terza edizione dell’International Conference on AI in Cybersecurity, un gruppo di giovani ricercatori ha esplorato il rapporto tra AI e stereotipi di genere.
Hanno generato migliaia di immagini su professioni e azioni professionali, poi le hanno classificate. Risultato: per “prendersi cura dei figli”, il 75% delle immagini ritraeva donne. Per “lavare il pavimento”, il 65%. Ma per “CEO”, il 100% erano uomini.

Gli stereotipi trasferiti all’intelligenza artificiale

Come la pensa l’AI? L’uomo a far carriera e la donna a casa a pulire e prendersi cura dei figli.
Infermieri, babysitter e insegnanti? Donne. Poliziotti, carpentieri e idraulici? Uomini. Anche nei lavori ben pagati, il 62% delle immagini erano di uomini. Persino tra i medici, solo il 37% erano donne.
L’AI, anziché essere un collaboratore obiettivo e veloce, si rivela sessista. Ma come è successo? Da una parte, l’AI è lo specchio dei dati che gli diamo per addestrarla. Da qualche parte, gli abbiamo detto o mostrato che a pulire per terra sono le donne e che i CEO sono tutti (o quasi tutti) maschi.

Dall’altra l’AI è figlia di chi l’ha progettata

Come ha scritto Mar Hicks “Sexism is a feature, not a bug”! Il sessismo, nel mondo delle tecnologie, è una caratteristica, non un errore. Non è una deviazione accidentale, ma parte integrante del sistema.
Secondo Hicks, il mondo delle tecnologie è intrinsecamente maschilista, oggi scopriamo (e non poteva che essere così) che lo sono anche i prodotti.
L’AI, se usata di fretta, rischia di diffondere e rafforzare questi stereotipi, amplificando le disuguaglianze. Quante campagne social vengono fatte usando immagini generate dall’AI e scelte in un solo minuto?
ChatGPT sta diventando il nostro collega, un assistente che ci aiuta a lavorare meno e meglio. Ma forse è il caso di iscriverlo a qualche corso base di Diversity & Inclusion.