Secondo uno studio delle Nazioni Unite gli assistenti vocali come Amazon Alexa, Apple Siri, Microsoft Cortana e Google Home stanno contribuendo a rinforzare e diffondere il sessismo.
Lo studio UNESCO dal titolo curioso: “Arrossirei se potessi” (è la compiacente risposta che Apple Siri dà quando riceve l’insinuazione di essere una prostituta) asserisce che i software di questo genere perpetuano lo stereotipo della donna servile e remissiva anche quando maltrattata.
“Il fatto che la maggior parte degli assistenti vocali abbia voce femminile e sia percepita come femminile trasmette il falso messaggio che la donna sia una docile aiutante, disponibile a tutte le ore con un semplice tasto o un “hey” buttato lì”.
“L’assistente non ha potere assertivo rispetto ai comandi che vengono impartiti. Onora gli impegni e accontenta le richieste senza badare al tono o all’ostilità con cui vengono fatte”.
È poi ritenuta particolarmente preoccupante la tendenza degli assistenti vocali a “deflettere, sorvolare o dare risposte concilianti” quando insultati, rinforzando la convinzione che le donne siano sottomesse agli abusi e alle molestie.
“Aziende come Apple e Amazon, composte in prevalenza da team di ingegneri maschi, hanno realizzato sistemi di AI che trasformano gli assistenti vocali in entità femminili che si relazionano con degli abusi civettando in modo passivo e remissivo,” prosegue il report.
Lo studio UNESCO suggerisce che gli assistenti digitali dovrebbero essere programmati per scoraggiare insulti sessisti, che le aziende dovrebbero smettere di equipaggiarli alla base con voci femminili e in ogni caso fornire diverse rappresentazioni della donna nelle varie estrinsecazioni dell’intelligenza artificiale fornita a questi dispositivi.
La scelta di dare una voce femminile di default è frutto delle indagini di mercato fatte dai colossi della tecnologia, ma lo studio confuta queste conclusioni obiettando che la maggior parte delle persone preferiscono una voce di sesso opposto, non necessariamente femminile.