Lo si apprende da UPI.
Chiamato ConvoWizard, lo strumento di intelligenza artificiale può "rilevare quando le tensioni si stanno intensificando e allontanare gli utenti dall'uso di un linguaggio incendiario", ha affermato l'università in una dichiarazione martedì.
I creatori di ConvoWizard affermano che lo strumento AI potrebbe essere utile "per aiutare a identificare quando i dibattiti online tesi si stanno avvicinando a un crollo irredimibile". I ricercatori mirano a che ConvoWizard svolga un ruolo simile a quello di un moderatore nei forum online.
"Tradizionalmente, le piattaforme hanno fatto affidamento sui moderatori per - con o senza assistenza algoritmica - intraprendere azioni correttive come la rimozione di commenti o il divieto degli utenti.
In questo lavoro proponiamo un paradigma complementare che autorizza direttamente gli utenti migliorando in modo proattivo la loro consapevolezza sulla tensione esistente in la conversazione in cui si stanno impegnando e li guida attivamente mentre redigono le loro risposte per evitare ulteriori escalation", afferma la ricerca nel paragrafo iniziale. Lo strumento può sia informare una persona se e quando la sua conversazione sta iniziando a diventare tesa, sia applicare lo stesso approccio alla tua risposta in tempo reale. Il programma suggerirà se è probabile che una risposta elevi le tensioni, incoraggiando un dibattito costruttivo piuttosto che il vetriolo.
Ancora nelle fasi di test, i ricercatori ritengono che lo strumento AI abbia già fornito "segni promettenti che le previsioni conversazionali" possono ridurre le interazioni negative in un ambiente online. "I dibattiti ben intenzionati sono solo umani. Nel mezzo di un acceso dibattito, su un argomento a cui tieni molto, può essere facile reagire emotivamente e rendersene conto solo dopo il fatto", uno dei ricercatori del progetto, Jonathan Chang detto in un comunicato. "C'è stato pochissimo lavoro su come aiutare i moderatori sul lato proattivo del loro lavoro. Abbiamo scoperto che esiste il potenziale per gli strumenti algoritmici per aiutare ad alleviare l'onere percepito dai moderatori e aiutarli a identificare le aree da rivedere all'interno delle conversazioni e dove intervenire, " ha detto al Cornell Chronicle.