REPORTAGE

“Progettare l’AI senza gender bias”, Laura Andina e gli stereotipi dietro gli assistenti vocali



Indirizzo copiato

Cos’hanno in comune gli assistenti vocali di cui i nostri telefoni, computer, case e luoghi di servizio sono dotati? Spesso hanno di default voci femminili e nomi di donne, e non ci facciamo sufficiente caso. È da qui che è partita la riflessione della Lead Product Manager di Sourceful durante la Codemotion Conference 2023

Pubblicato il 29 nov 2023



Ai Bias

«Avete mai notato che gli assistenti vocali, basati sull’Intelligenza Artificiale, come Goolge Assistant, hanno sempre come genere di default quello femminile? Ma non solo, per molti di questi anche i nomi rimandano a figure di donne, come Alexa, Cortana (ispirato al personaggio femminile del videogame “Halo”, una ragazza celebre per il suo sex appeal), Siri (nome norvegese che significa “bella vittoria” o “consigliera di bella vittoria”). E in altri casi, come l’assistente Anna di Ikea o il robot umanoide Sophia, diventato presto un caso mediatico, anche l’aspetto è quello di una donna. O ancora, avete mai provato a chiedere a un’AI in grado di creare immagini di restituirvi quella di un “boss” o di un assistente? Con buone probabilità, nel primo caso vi ritroverete una figura maschile e nel secondo una figura femminile».

Continua a leggere questo articolo

Articoli correlati