cs:go-steam-gaming-ban
Una nuova IA costruita per combattere i comportamenti negativi nei giochi online ha bannato ben 20.000 persone in CS:GO. L’intelligenza artificiale si chiama Minerva ed è costruita da un team della piattaforma di gioco online FACEIT. Essa ha organizzato il CS:GO London Major del 2018, in collaborazione con Google Cloud e Jigsaw.

Minerva ha iniziato a esaminare i messaggi di chat di CS:GO alla fine di agosto e nel primo mese e mezzo ha contrassegnato 7.000.000 di messaggi come “toxic”, ha emesso 90.000 avvisi e bannato 20.000 giocatori.

CS:GO, giocatori bannati dalla IA di Google

L’intelligenza artificiale, addestrata attraverso l’apprendimento automatico, ha prima emesso un avviso. Nel giro di pochi secondi dal termine di una partita, Minerva ha inviato al giocatore colpevole notifiche di un avvertimento o di un divieto e le pene sono diventate più dure per i recidivi.

Il numero di messaggi tossici si è ridotto del 20% tra agosto e settembre durante l’utilizzo dell’IA. Il numero di giocatori che hanno inviato messaggi tossici è diminuito dell’8%. Il processo è iniziato dopo “mesi” di eliminazione dei falsi positivi ed è solo il primo passo per distribuire Minerva ai giochi online.

“Il rilevamento della chat in-game è solo la prima e più semplicistica delle applicazioni di Minerva che serve come primo passo verso la nostra visione di questa intelligenza artificiale”, ha detto FACEIT in un post sul blog.

“Siamo davvero entusiasti di questa fondazione in quanto rappresenta una solida base che ci consentirà di migliorare Minerva fino a quando non avremo finalmente individuato e affrontato tutti i tipi di comportamenti offensivi in ​​tempo reale.”

“Nelle prossime settimane annunceremo nuovi sistemi che supporteranno Minerva nella sua formazione.”