Categorie
Domande di Internet

Quali soluzioni possono implementare le società di videogiochi per far fronte alla misoginia e al razzismo che dilaga nelle comunicazioni di chat aperte (anziché renderle la responsabilità dell'individuo target di silenziare / bloccare)?

Non c'è nessuno che stai sostanzialmente dicendo che una società dovrebbe dire alla gente cosa dire

L'unica cosa che potrei vederli fare sarebbe assumere moderatori di contenuti che farebbero controlli a campione sulle registrazioni di chat aperte. Se venisse rilevato qualcosa, il giocatore dovrebbe cancellare il proprio account. Fallo abbastanza volte e alla fine la gente avrebbe paura di perdere i propri progressi / essere chiuso, e farebbe una svolta per non promuovere quel tipo di linguaggio

Non hanno assolutamente alcun controllo su ciò che viene detto in chat aperta. Immagino che non sia tecnicamente vero. Potrebbero disabilitare la funzione, ma sarebbe subottimale.

Per l'effettiva attività di moderazione dei commenti Possibilmente avere un team di apprendimento automatico costruire un modello che contrassegni le cose relative ai problemi elencati (ovvero l'elaborazione del linguaggio naturale).

C'è una società che lo fa per account di social media per bambini (dms e simili) e contrassegna i genitori quando trovano qualcosa che non va bene, i bambini ottengono la privacy ma sono ancora monitorati per sicurezza.

Per quanto riguarda il vero problema dei giocatori che sono razzisti / misogini – penso che vada oltre un'azienda di giochi. Forse investono in programmi sociali che mirano a educare il loro pubblico target?

Nella chat di testo , filtri di chat

Almeno filtrerebbe alcune delle parolacce