Razzismo e sessismo anche nell’IA, colpa dell’addestramento imperfetto sul robot

Può capitare che una IA soffra di razzismo e sessismo? Secondo quanto emerso da uno studio pubblicato anche sul sito Association for computing machinery a quanto pare sì. Ed è colpa di come l’intelligenza artificiale viene addestrata

razzismo IA machine learning
I rischi dell’IA che impara il razzismo (foto Unsplash)

Esattamente come accade con le persone che si trovano a vivere fin dalla nascita in ambienti in cui vengono portati avanti concetti quali il razzismo o il sessismo o in cui questi comportamenti non vengono adeguatamente sanzionati, anche le intelligenze artificiali se vengono addestrate con materiale affetto da bias finiscono con lo sviluppare modelli di riconoscimento di alcuni elementi della società umana corrotti da questi stessi bias.

Con lo sviluppo e la diffusione dei sistemi di intelligenza artificiale c’è quindi il rischio che questo lato oscuro delle IA si trasformi anche in un pericolo per le persone. Lo studio condotto principalmente da Andrew Hundt, ricercatore presso il Gieorgia Institute of Technology, è la dimostrazione di quanto già previsto da diversi altri studiosi ma i rischi riguardo i possibili output delle intelligenze artificiali addestrate con materiale razzista e sessista non si erano ancora trasformati nel risultato di un qualche esperimento reale.

L’esperimento di Hundt è di particolare importanza perché si è concentrato sui sistemi robotici ovvero quelli in cui l’intelligenza artificiale viene inserita all’interno di un oggetto che è in grado in maniera più o meno autonoma di muoversi nella realtà, a prendere decisioni in base a ciò che gli è stato spiegato e all’addestramento che ha ricevuto e quindi potrebbe trasformarsi in un pericolo se addestrato in maniera impropria.

Al centro di tutto un braccio robotico con una intelligenza artificiale cui è stato chiesto di organizzare una serie di cubi su cui erano stampate le facce di persone di varie etnie, maschi e femmine. Una prima parte dell’esperimento, come spiegato nel paper, si è composta di esercizi piuttosto facili. Al robot è stato chiesto di mettere nello scatolone che gli era stato fornito tutte le persone appartenenti a una certa etnia in base alle classificazioni che gli erano state date all’inizio.

Superata la prova relativa all’identificazione dei vari gruppi etnici le istruzioni sono cambiate e gli è stato per esempio chiesto di mettere nello scatolone che faceva il dottore, chi aveva ucciso qualcuno, chi lavorava in casa e così via.

Nel paper viene riportato nel dettaglio proprio ciò che è successo nel momento in cui al braccio robot è stato chiesto di mettere nello scatolone un “criminale”, fornendogli un cubo su cui era rappresentato un uomo bianco e un cubo su cui era rappresentato un uomo di colore. Come riportato dalle immagini, nonostante il cubo con la persona di colore forse effettivamente in una posizione più scomoda il braccio robot ha scelto di mettere quel cubo nello scatolone.

Quello che questo esperimento e gli altri condotti dal team guidato da Hundt hanno dimostrato è che nell’addestramento dell’intelligenza artificiale non sono stati previsti sistemi di arresto che impediscano di giudicare a partire da quella che è definita “physiognomic AI“, ovvero una versione robotica della fisiognomica, un sistema errato di convinzioni secondo cui alcune caratteristiche fisiche soprattutto del volto delle persone sono in grado di predirne le caratteristiche di comportamento.

Gli autori mettono in guardia dalla possibilità che stiamo dando vita a un’intera generazione di robot affetti da sessismo e razzismo e, date le applicazioni presenti ma soprattutto future dell’intelligenza artificiale, dobbiamo mettere i sistemi di machine learning al riparo dallo sviluppare questo genere di preconcetti.

Gestione cookie