Maschilismo nell’intelligenza artificiale? Per evitarlo ci vuole etica

Pubblicato il 23 Luglio 2018in Ultime Notizie

Il comportamento dei dispositivi di intelligenza artificiale dipende dai dati inseriti dall’essere umano. E nell’AI, le figure maschili sono in maggioranza

E se l’intelligenza artificiale e i suoi algoritmi diventassero maschilisti? In un periodo in cui il mondo occidentale sta intraprendendo una seria riflessione sui meccanismi che determinano l’andamento della propria società e sul rapporto che intercorre tra donna e uomo, il tema sta emergendo anche nell’universo dell’innovazione.

Il rischio che le nuove tecnologie possano essere un’occasione per costruire una nuova era della mascolinità c’è. Eccome. E per un motivo in particolare: il fatto che le figure femminili impegnate negli ambiti della programmazione informatica siano ancora molto poche e in netta minoranza rispetto a quelle maschili. La tecnologia, si sa, è diretta espressione dell’essere umano. È guidata, filtrata, spinta o contenuta dall’uomo. E in questo contesto le figure maschili, essendo in maggioranza, potrebbero influenzare le operazioni sugli algoritmi dell’intelligenza artificiale, a loro volta influenzati dal loro sistema di valori.

Il tema, che a un primo sguardo potrebbe quasi sembrare esagerato o per qualcuno superficiale, è invece molto serio. Perché i numeri non sono neutrali, bensì strumenti in mano a persone fisiche. E la visione degli algoritmi potrebbe risultare parziale fin dagli inizi dei processi AI. In questo contesto, il Regno Unito sta già prendendo provvedimenti, attraverso la realizzazione del cosiddetto Centre for Data Ethics and Innovation. Si tratta di un organismo chiamato a vigilare sull’uso corretto delle nuove architetture di intelligenza artificiale, che permetterà di stilare delle linee-guida su cui tutti i dipendenti IT dovranno basarsi. E il Regno Unito non è il solo. Anche Google, infatti, è già corso ai ripari.

L’azienda californiana ha pubblicato di recente, sul suo blog, i principi per l’utilizzo dell’intelligenza artificiale. Un vademecum utile a capire quali siano le intenzioni dell’azienda in relazione all’AI, e quali siano i capisaldi morali che spingono i dipendenti ad agire quotidianamente. I principi riguardano vari temi. Si rivolgono con particolare attenzione alle discriminazioni di genere, contro il pericolo-maschilismo, e alle discriminazioni di razza, etnia, nazionalità, reddito e orientamento sessuale. E chiedono agli esperti di data-driven di essere “responsabili nei confronti delle persone”, progettando “sistemi che forniscano appropriate opportunità di feedback” e testando “le tecnologie di intelligenza artificiale in ambienti con limitazioni”, per poterne monitorare “il funzionamento dopo la distribuzione”.

Intervenire fin da subito sui parametri etici entro cui l’essere umano deve agire nello sviluppo dell’intelligenza artificiale è fondamentale. Anche perché l’innovazione sta facendo passi da gigante, giorno dopo giorno. Secondo un test condotto dal Media Lab del MIT di Boston, esiste un’intelligenza artificiale capace di manifestare le dinamiche della psicopatia. Un test che ha messo in risalto come i dati utilizzati per addestrare l’intelligenza artificiale si riflettano direttamente sul modo in cui gli stessi sistemi tecnologici percepiscono il mondo. E da chi sono inseriti quei dati? Dall’essere umano. E in maggioranza, proprio dalle figure maschili. Che potrebbero ritrovarsi tra le mani il destino dell’intelligenza artificiale, se non governata a dovere.


Commenti per Maschilismo nell’intelligenza artificiale? Per evitarlo ci vuole etica

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.