I numeri della tossicità nei videogiochi online
Un fenomeno in crescita a cui le aziende reagiscono con l'uso di sistemi di IA. Ma il problema non è tecnologico.
L’informazione videoludica vive connotazioni, situazioni e storture che non nascono in una bolla; ma sono una parte, o meglio dire una rappresentazione, degli stessi problemi che affliggono ogni ambito del giornalismo. Però alcune di queste connotazioni, situazioni e storture trovano nell’informazione videoludica una forma, forse, ancora più evidente: perché i soldi che girano sono meno; perché l’interesse verso i videogiochi - o almeno verso l’informazione sui videogiochi - è minore di quella per le auto o il calcio o l’economia, per intenderci. Perciò certi fenomeni vengono acuiti.
Da questo contesto, per esempio, nasce il fenomeno del clickbait, cioè di attirare con titoli ed espressioni ammiccanti l’interesse delle persone: che però, poi, scoprono che la notizia invece è diversa oppure non c’è affatto.
Il clickbait e fenomeni simili nascono con l’obiettivo di aumentare il volume delle notizie e degli (scarsi) introiti pubblicitari; che restano la base che tiene in piedi i principali portali di informazione in Italia. È un discorso già fatto, già detto, già discusso: non mi soffermo oltre.
C’è però un aspetto di questo sistema - storto, marcio, confusionario - che viene sottovalutato: ossia la meccanica autoavverante.
Scrivere male le notizie; distorcere la realtà in un modo che possa, forse, incuriosire di più le persone; persino aizzare, a volte, le persone con polemiche mezze inesistenti, spulciando fra conversazioni poco popolari su Reddit o su Facebook o su X (ex Twitter): sono tutti modi in cui l’informazione specializzata cerca di aumentare la sua popolarità; ma ciò che sta facendo in realtà è allontanare ancora di più le persone da un modello virtuoso e che possa per davvero essere una possibile posizione più solida in futuro.
Così facendo sta aumentando la profonda, ed esasperante, sfiducia nei confronti dell’informazione specializzata.
Inseguendo i volumi oggi e cercando di attirare (un po’ con l’inganno e un po’ no) le persone meno interessate all’informazione (che sono quelle in maggior numero, ma sono anche quelle più volubili) si sta consolidando un sistema che invece allontana le persone più interessate a un’informazione valida e puntuale. Anziché gettare le basi per costruire un modello più sostenibile per tutte le parti coinvolte; anziché costituire un volto credibile e un sistema capace effettivamente di informare, di divulgare, di migliorare le cose.
Al contrario, nel proteggersi dalle difficoltà economiche (che esistono e sono complesse e non vanno dimenticate) l’informazione specializzata si sta invece avvelenando da sola.
Massimiliano
La tossicità rappresenta un problema sempre più rilevante per i videogiochi online.
La creazione di una solida comunità è alla base del successo di un videogioco: ma se le persone preferiscono allontanarsi da quel videogioco perché una quota di utenti rende l’ambiente negativo, allora è un problema. Un grosso problema.
Ma quanto vasto?
Il più recente rapporto sulla tossicità online commissionato da Unity (sì, quella Unity) ha fornito una serie di numeri molto importante per valutare come sia i giocatori sia gli sviluppatori percepiscono questo fenomeno.
Eccone alcuni:
la percentuale di persone che afferma di aver visto o vissuto in prima persona un comportamento tossico giocando online è cresciuta dal 68% del 2021 al 74% del 2023;
sono gli sviluppatori, soprattutto, ad affermare di aver notato un aumento nei comportamenti tossici negli ultimi dodici mesi (il 53% contro il 32% dei giocatori);
sono innanzitutto gli sparatutto in prima persona (51%), i giochi di corse/sportivi (49%) e i battle royale (44%) i videogiochi online in cui le persone hanno registrato più tossicità negli ultimi dodici mesi;
e poi, il 67% dei videogiocatori online ritiene probabile abbandonare un videogioco dopo aver vissuto in prima persona un comportamento tossico.
N.B. Il rapporto è basato su un sondaggio effettuato fra il 21 e il 31 luglio, fra Stati Uniti, Regno Unito e Corea del Sud, fra 2.522 videogiocatori e 407 sviluppatori. Tutti maggiorenni.
Come reagiscono gli sviluppatori
Videogiochi come League of Legends, Valorant, Overwatch, Rocket League e Call of Duty - ma va detto che in qualche forma la tossicità online è presente in tutti i videogiochi con componenti multigiocatore: praticamente ovunque ci siano persone - devono confrontarsi con il problema della tossicità. Che si presenta in varie forme: esagerando gli sfottò nei confronti di chi ha perso, magari durante il replay dell’ultimo colpo; perseguitando gli utenti tramite i messaggi privati oppure anche attraverso insulti pronunciati al microfono.
La chiamiamo tossicità anche se si tratta di bullismo sistemico, che una quota di persone effettua nei confronti soprattutto dei nuovi arrivati; di chi non “appartiene” a quel videogioco agli occhi di un gruppo di utenti.
Per League of Legends il produttore Riot Games ha dovuto togliere la chat con cui si poteva parlare con chiunque, anche con gli avversari, a causa degli insulti che venivano condivisi. Oppure, più di recente, ha introdotto un aggiornamento in modo che gli utenti che vengono colti a portare avanti più e più volte un comportamento ritenuto tossico debbano prima giocare partite non classificate comportandosi decentemente per poter tornare a giocare nelle partite classificate.
Nel 2020 Electronic Arts ha migliorato le opzioni per segnalare comportamenti tossici e rafforzato le penalità dopo aver notato che il 58% dei videogiocatori dei suoi giochi aveva esperito delle forme di tossicità nel corso dell’anno precedente.
In Counter-Strike 2, invece, Valve Software sta modificando le modalità del matchmaking per evitare che gruppi di quattro persone espellano dalla partita il quinto componente della squadra, esterno al quartetto iniziale.
Più in generale, da anni i produttori e gli sviluppatori stanno cercando delle soluzioni per affrontare meglio la tossicità attraverso l’implementazione di funzionalità proattive - con cui gli utenti possono segnalare un utente, per esempio - o di sistemi di moderazione evoluti. Perché non farlo significa, in sostanza, perdere utenti.
Ed è qui che entrano in gioco i sistemi di apprendimento automatico (o di Intelligenza Artificiale se preferisci).
Lo scorso agosto Activision Blizzard ha introdotto in Call of Duty Warzone e Call of Duty Modern Warfare II il sistema ToxMod, sviluppato da Modulate, per “identificare in tempo reale” comportamenti tossici oltre che applicare le regole di contrasto ai discorsi tossici, che possono includere “parole d’odio, linguaggio discriminatorio, molestie e altro ancora”. Lo stesso sistema sarà presente in Call of Duty Modern Warfare III, che uscirà il 10 novembre.
ToxMod è un sistema proattivo: anziché fare riferimento alle segnalazioni degli utenti, ToxMod riesce in tempo reale a identificare le violazioni alla politica applicata dall’azienda e anche ad analizzare il tono di voce, così da cogliere sfumature fra lo scherzo e la denigrazione.
Si tratta di un ulteriore elemento di rinforzo delle politiche di moderazione, che già includevano, per esempio, un filtro da applicare ai nomi degli utenti e ai commenti nelle chat che presentavano parole ritenute inadatte.
Anche Riot Games sta addestrando, raccogliendo i dati (facoltativi) dalla chat vocale in gioco, un sistema di apprendimento automatico per rafforzare la moderazione in Valorant.
Un problema non tecnologico
Sono tutti sistemi per arginare il più possibile un fenomeno che, però, è quasi radicato nella presenza online; nel vivere un ambiente virtuale dove le persone si sentono un po’ più libere di accanirsi contro altre persone, di sbeffeggiarle e di isolarle: fino a far passare loro la voglia di giocare online ai videogiochi.
La verità è che non si può risolvere il problema della tossicità online semplicemente adottando la tecnologia più avanzata: perché la tossicità - il bullismo sistemico online - è un problema culturale e sociale molto più radicato; è un problema insito nel modo in cui certe persone ritengono che ci si possa comportare online.
Un sistema di moderazione, anche automatizzato, è per forza ex post; ossia interviene dopo o al massimo, se va bene, durante il comportamento tossico. A volte anche durante può essere già troppo tardi: molte persone, a quel punto, se ne sono già influenzate da quella cattiva esperienza.
È un problema anche per gli sviluppatori: una comunità tossica potrà pure essere fedele, ma di fatto si sovrappone, infine, al videogioco, creando un binomio esperienza/tossicità che non può che danneggiare due volte lo studio.
Le altre notizie, in breve
Minecraft ha superato le 300 milioni di copie vendute dal 2009
Pete Hines ha lasciato Bethesda dopo 24 anni. Stava ricoprendo il ruolo di responsabile della pubblicazione
Starfield è stato il videogioco più venduto negli Stati Uniti a settembre, secondo i dati di Circana (ex NPD), nonché il settimo dell’anno fino a oggi. Mortal Kombat 1 il secondo, EA Sports FC 24 il terzo. Starfield è stato il secondo videogioco più venduto a settembre in Europa, superato da EA Sports FC 24
Analogue sta lavorando a una nuova console, che riproporrà l’hardware originale del Nintendo 64 e avrà anche un’uscita 4K. Se ne saprà di più nel 2024
Il picchiaduro Mortal Kombat è stato trasformato in un gioco di ruolo in tempo reale: Onslaught è già disponibile per iOS e Android
Da leggere
C’è una bolla dei giochi indipendenti? - Gita Jackson, Roadmap
L’aggiornamento ai 60 FPS di Redfall funziona - ma non è la storia di redenzione che speravamo - Oliver Mackenzie, Eurogamer
Premesso che sono un accanito videogiocatore ma anche un giocatore asociale che gioca solo in single player e senza interagire con gli altri giocatori (salvo party formati apposta con gli amici di tanto in tanto)..
Quello che sta accadendo in altri contesti è che si sta inserendo la politica con delle regolamentazioni e delle sanzioni. Un esempio il Digital Service Act. Che ne pensi di questo tipo di interventi?
A me pare che ci sia già un chiaro interesse costituito: nel senso se io produco o vendo un videogioco chiaramente ho interesse a renderlo accessibile e godibile alla maggior parte delle persone e infatti tu illustri come l'industria si sia mossa per affrontare il problema. In generale in ogni contesto in fondo, che sia al cinema, a una conferenza, a un concerto, a una partita sportiva, a messa, o nei contesti virtuali, se una minoranza disturba l'evento e rovina l'esperienza agli altri è giusto ammonirla e poi mandarla fuori. D'altro canto può esistere un incentivo anche a non esagerare con una moderazione "nazi", perché anche quella diventerebbe fastidiosa e rovinerebbe l'esperienza e quindi a cercare un equilibrio.
Infine può esistere un incentivo anche a creare o permettere contesti più "crudi" con una moderazione più blanda e permissiva, ma che siano per chi li gradisce. Dopo tutto per esempio il porno o le oscenità possono essere inaccettabili su Facebook, ma sono accettati e benvoluti con il consenso e la soddisfazione di tutte le parti in altri contesti.
Quindi ad esempio una maggiore possibilità di personalizzare e suddividere i contesti chiarendo bene le regole di entrata e di comportamento sarebbe utile? La creazione di spazi diversi con differenti regole di comportamento e criteri di accessibilità diversi? Il potenziamento della possibilità di gestire diversi gradi di separazione e creare gruppi tanto aperti o tanto chiusi, tanto comunicanti o tanto privati, potrebbe essere un modo di favorire la convivenza fra sensibilità ed esigenze diversi?