Se l'IA "crea" Quake II
Quando l’Intelligenza Artificiale fa girare Quake e noi guardiamo dalla parte sbagliata
Eccezionalmente, questa puntata di Extra Time è aperta a tutti, per avere un’idea di che tipo di lavoro propongo alle persone abbonate.
Se oggi scrivete “Quake II AI” su X, il tono dominante è l’ironia. Non solo su X, eh: pure su tanti siti di informazione.
Microsoft Research ha pubblicato una demo giocabile nel browser in cui Quake II viene rigenerato in tempo reale da un modello di IA chiamato WHAMM (che sta per World and Human Action MaskGIT Model). E la gente ci ha riso sopra o ne ha parlato con disgusto.
Il risultato non è granché, è evidente. La mappa è scolorita, i nemici sono quasi indistinguibili, le armi sembrano fatte con il pongo, il tutto con l’aggiunta dell’input lag che lo fa diventare a malapena giocabile; e poi il modello è ancora limitato: si “dimentica” in fretta ciò che ha creato, quindi se tornate indietro, la stanza è stata rifatta da capo. La reazione immediata è stata di scherno.
E va bene, possiamo anche ridere. È brutto e su questo non si discute. Ma anche qui vale la regola aurea dello sviluppo videoludico: tutti i giochi, nelle prime fasi, sono brutti. Perché sono pieni di bug, i controlli vanno sistemati e i personaggi vanno in giro senza le forme e i contorni dei modelli finali.
Nessuno vuole ricordare che Doom all’inizio non aveva texture; che in The Last of Us i nemici si incastravano nei muri; che persino The Legend of Zelda: Ocarina of Time - uno dei capolavori della storia videoludica - a un certo punto, all’inizio della produzione, aveva buchi ovunque.
Quei giochi sono stati rifiniti per anni, da decine o centinaia di persone. La demo di Quake II basata su un modello di IA no. È uno scheletro generativo, una prova tecnica, un proof of concept. Eppure ci comportiamo come se fosse un gioco incompiuto; come se dovessimo recensirlo su Metacritic.
Ma la notizia vera non è che è brutto oggi. La notizia è quanto meno brutto sia rispetto a un modello di sei settimane fa. Sei. Settimane. Fa.
L’accelerazione che non vogliamo vedere
Lo stesso team Microsoft aveva già mostrato qualcosa di generativo a febbraio. In quel caso erano delle demo - metteteci mille virgolette - a bassissima risoluzione, idee di gameplay appena accennate.
Questo a febbraio. E ora? Ora abbiamo una demo che genera ambienti 3D coerenti, con interazioni rudimentali e spesso proprio rotte, ma giocabili - o almeno navigabili - via browser. In tempo reale.
Nel giro di poche settimane, un esperimento accademico è passato da “bello sulla carta” a “funziona, prova tu”.
E allora la domanda che dovremmo porci non è “perché oggi è così ingiocabile?”, bensì: fra un anno, quanto sarà migliore?
Rispetto al precedente modello di WHAMM, che era basato su Bleeding Edge di Ninja Theory, sono cambiate molte cose:
può generare immagini a 10 fotogrammi per secondo. Prima era un’immagine al secondo;
è stato addestrato con una settimana di dati contro l’equivalente di sette anni di gameplay che servono serviti in precedenza. “Ciò è stato possibile grazie alla collaborazione con tester di giochi professionisti per raccogliere i dati e concentrandosi su un singolo livello con un gameplay intenzionale, assicurandoci di raccogliere dati sufficientemente diversi e di alta qualità”, ha spiegato Microsoft;
la risoluzione finale è stata raddoppiata, arrivando a 640 x 360.
Il punto non è che WHAMM oggi non regge il confronto con i giochi commerciali. Il punto è che non ci sta nemmeno provando. Il confronto giusto è con i tool di sviluppo, con le versioni alpha, con gli editor procedurali. E da questo punto di vista, i risultati assumono un altro significato.
Se oggi può generare Quake II, domani potrà generare livelli di Gears of War. Poi mappe di Halo. Poi - chissà - strutture aperte e reattive come in Dishonored o Deathloop. E a quel punto, cosa sarà un game designer? Sarà ancora colui che crea, o diventerà colui che seleziona, che guida, che rifinisce?
Non ho citato a caso questi videogiochi: sono tutti di Microsoft, attraverso Zenimax o Halo Studios o le tante altre case che si è comprata in questi ultimi anni. Ninja Theory, Double Fine, Activision, Blizzard, King, Compulsion Games, Turn 10.
Così non vale nemmeno il discorso, frequente quando si parla di IA generativa, di rubare il lavoro degli altri: in questo caso il lavoro è suo e ci sta addestrando un modello a uso interno.
E quando la demo sarà indistinguibile da un gioco “normale”?
Oggi è facile distinguere questa demo da un videogioco vero. Ma domani?
Quando i nemici avranno pattern di attacco intelligenti. Quando l’ambiente sarà leggibile, fluido e bellissimo. Quando potremo cambiare genere con un prompt (“ora fammelo survival horror”) o l’ambientazione (“spostalo su Marte”) e in tre secondi avremo un nuovo livello da esplorare. A quel punto, non sarà più una demo: sarà un framework.
E allora il discorso cambierà.
Perché non parleremo più del fatto che i comandi sono lenti. Parleremo di chi potrà usare questi strumenti; di chi controllerà le pipeline creative; di cosa significherà “creare un gioco” in un contesto dove la generazione è istantanea e il raffinamento diventa la parte più lenta.
Sarà una rivoluzione molto concreta. Non quella dei Non Fungible Token o del metaverso, con promesse fumose, realtà inesistenti e soluzioni che nessuno aveva chiesto per problemi che non avevamo.
Questo cambiamento è tangibile. Queste demo le stiamo vedendo da Microsoft, una delle più grosse società del mondo, perché la direzione in cui sta andando è di evolvere ancora e ancora questo metodo.
Il focus sbagliato
La reazione a questa demo dice più su di noi che sull’Intelligenza Artificiale. Abbiamo visto qualcosa che non ci piace, e l’abbiamo trattata come uno scherzo. La reazione è stata impulsiva, trattata alla stregua di un videogioco in accesso anticipato fatto a casaccio e semplicemente brutto. Così, un po’ ingenuamente, vediamo la demo di Quake II e diciamo: “be’, se questo è ciò che possiamo fare con l’IA, allora qual è il problema?”
Ma mentre ci concentriamo sui dettagli goffi, ci perdiamo la domanda di fondo: quando le IA potranno fare davvero giochi - perché l’evoluzione è velocissima e ce ne stiamo accorgendo - cosa diventerà l’industria videoludica? Chi prenderà le decisioni creative? Chi sarà considerato l’autore (domanda complessa già oggi)?
Cosa diventerà il lavoro di centinaia di sviluppatori, artisti, level designer, programmatori, compositori?
Certo, oggi la demo di Quake II fatta con l’IA fa ridere. Ma domani, forse, potrebbe essere alla base del prossimo videogioco che state giocando.
Analisi tremendamente a fuoco
Miglior Extra Time ever