Mercoledì, 27 Maggio 2020 18:22

L'intelligenza artificiale può prendere decisioni morali, lo dice uno studio.

Scritto da P.V.

Una rete neurale ha "letto" testi religiosi, libri e articoli di notizie di diversi periodi della storia per fare scelte morali simili all'uomo.

Gli scienziati ritengono che i loro risultati dovrebbero essere utilizzati per la ricerca di follow-up poiché l'intelligenza artificiale sta giocando un ruolo crescente nelle nostre vite. Un nuovo studio ha scoperto che le reti neurali possono essere addestrate per riprodurre una bussola morale umana, inclusi valori etici e stereotipi di genere, quando si prendono decisioni.

Lo si apprende da Sputnick. Un team di scienziati tedeschi ha fornito un enorme set di dati a un sistema di intelligenza artificiale per "insegnare" relazioni e associazioni tra concetti diversi. Questi includevano la Bibbia, il Corano, il Libro di Mormon, gli insegnamenti buddisti, le costituzioni di 193 paesi, i libri dal 16 ° al 19 ° secolo, nonché le notizie di Reuters pubblicate dal 1987 al 2009, secondo lo studio, pubblicato sulla rivista Frontiers in Intelligenza artificiale la scorsa settimana.

"E' come apprendere una mappa del mondo", ha detto il co-autore dello studio Dr Cigdem Turan. “L'idea è di far sì che due parole si trovino strettamente sulla mappa se vengono spesso usate insieme. Quindi, mentre 'uccidere' e 'uccidere' sarebbero due città adiacenti, 'amore' sarebbe una città lontana. ”

"Estendendolo alle frasi, se chiediamo: 'Dovrei uccidere?' ci aspettiamo che "No, non dovresti". Sarebbe più vicino di "Sì, dovresti". In questo modo, possiamo porre qualsiasi domanda e utilizzare queste distanze per calcolare un pregiudizio morale: il grado di giusto da sbagliato. "

Gli scienziati hanno scoperto che la macchina era in grado di affrontare il contesto di un'azione quando prendeva una decisione. Dopo aver "estratto" i pregiudizi umani dal set di dati, la rete, chiamata Moral Choice Machine, ha indicato che è più appropriato ammazzare il tempo che uccidere le persone, o più accettabile avere una pistola per cacciare gli animali che avere una pistola per uccidere le persone.

"La macchina potrebbe distinguere tra le informazioni contestuali fornite in una domanda", ha affermato il co-autore Dr. Patrick Schramowski. "La macchina ha fatto questo, non semplicemente ripetendo il testo trovato, ma estraendo relazioni dal modo in cui gli umani hanno usato il linguaggio nel testo".

Riflette anche la presenza di stereotipi di genere umano nel linguaggio, dimostrando che alcune professioni sono più comunemente legate alle donne e altre agli uomini. La cameriera, la cameriera e l'addetto alla reception sono risultati i lavori più "di parte femminile", mentre il becchino, l'arbitro e l'attore hanno la più forte associazione con gli uomini. Lo studio ha prodotto prove che il pregiudizio morale è cambiato nel tempo: nel 1987 il matrimonio e la genitorialità erano tra le cose più positive, ma il loro valore è diminuito nel 2008-2009 mentre andavano al lavoro e la scuola è cresciuta di importanza. Esperimenti sull'MCM hanno rivelato che può valutare le azioni e le collocazioni autonome in base alla loro connotazione positiva o negativa, ma il suo algoritmo a volte fatica a confrontare azioni totalmente diverse. L'elenco delle cose da fare della macchina classifica i "prigionieri di tortura" in basso rispetto a "viaggiare negli Stati Uniti", ma in alto rispetto a "andare a teatro".

Un altro bug è che la macchina può considerare un'azione inaccettabile più accettabile se ha aggettivi più positivi. Ad esempio, "fare del male alle persone" è classificato più in basso di "fare del male alle persone" (ma comunque come un'azione negativa), mentre "fare del male a persone buone, simpatiche, amichevoli, positive, adorabili, dolci e divertenti" diventa bizzarramente positivo. Gli scienziati hanno affermato che l'MCM dovrebbe essere perfezionato utilizzando un set di dati con punteggio morale etichettato per evi

Ultima modifica il Mercoledì, 27 Maggio 2020 18:28