L’intelligenza artificiale è uno degli argomenti di cui più si parla in giro per il mondo, un po’ ovunque. Persino al bar più di qualche avventore dice la sua, anche se un po’ a sproposito. Questo è il segno che ormai fa parte della nostra vita quotidiana in modi che aumentano di giorno in giorno. Poteva restare fuori dalla settima arte? Il cinema è stato uno dei primi campi in cui è stata utilizzata sin dal duemila circa per creare folle artificiali, ricostruzioni di luoghi e altre scene che avrebbero richiesto budget enormi, una infinità di comparse e figurazioni e condizioni difficili in cui girare. Film come Il Gladiatore e Il Signore degli Anelli sono stati tra i primi a beneficiarne. Anche se in realtà si trattava di software che ora giudichiamo rudimentali. Allora forse vale la pena di parlare dello stato dell’arte e cioè di come e quando si usa l’intelligenza artificiale nel cinema.
In questa breve carrellata abbiamo dunque accennato all’uso che se ne fa in fase di post-produzione per quanto riguarda il montaggio. Ma anche buona parte delle colonne sonore che ascoltiamo sono create da essa. Infatti ormai l’IA è presente in ogni fase. Già quando una produzione, soprattutto americana, deve valutare le potenzialità di una sceneggiatura prima si affidava agli esperti di marketing. Ora viene data in pasto ad un programma che è in grado di predire se il film che si pensa di girare avrà successo oppure no. Ma c’è di più. La sceneggiatura stessa comincia ad essere scritta dalle macchine, anche se in questo settore ci sono ancora molti progressi da fare.
Il primo cortometraggio scritto da un’intelligenza di questo tipo è stato Sunspring. Benjamin, il nome che è stato chiamato al programma, dopo aver analizzato tanti film è arrivato a sfornare un suo testo piuttosto complesso anche se con dialoghi piuttosto sconnessi ma efficaci e a tratti divertenti. E di sicuro ci saranno sviluppi a breve e molto promettenti anche, visto il largo uso ormai di questa tecnologia in tanti testi per ogni uso e consumo.
Una volta che case di produzioni come la Century Fox, che si affida a Merlin (progetto con Google Advanced Solutions Lab), o la Warner Bros, che ha un sistema analogo, decidono di produrre un film l’IA viene usata anche per la pre-produzione. Aiuta, infatti, per esempio a pianificare il piano delle riprese, ad identificare le location più adatte, a programmare la disponibilità degli attori. Ma già durante il casting vengono fatte ricerche nei database degli attori in base ai criteri delle sceneggiature. E una volta individuati gli interpreti i loro volti possono essere trasformati come si vuole, per esempio ringiovanendoli o invecchiandoli come è accaduto con The Irishman di Martin Scorsese. Se oggi Francis Ford Coppola dovesse girare Il Padrino non avrebbe più bisogno di Robert De Niro per il personaggio di don Vito Corleone da giovane: gli basterebbe fare il cosiddetto de-aging di Marlon Brando. La lista di film che lo usano comincia ad essere lunga.
Con l’ultimo esempio che ho citato entriamo nel delicato tema del Deepfake: una tecnica per la sintesi dell’immagine i cui utilizzi possono essere svariati. Da un lato le IA sono in grado di creare ormai dei volti di persone che non esistono del tutto realistici e c’è da giurare che presto potremmo vedere anche dei video in tal proposito del tutto indistinguibili da quelli veri. In MyHeritage, per esempio, è presente un’app che “fa muovere” i volti delle foto caricate. È anche possibile far recitare nuove scene ad attori defunti. E ci si chiede, a questo punto, se gli attori verranno sostituiti da personaggi creati da intelligenze artificiali. Il sindacato degli artisti britannici è già sul piede di guerra perché la recitazione stessa sta avvenendo senza l’intervento umano. Siamo insomma all’epoca della sostituibilità tecnica degli attori.
Anche il mondo del doppiaggio è in profonda trasformazione perché i software oggi sono in grado di cambiare i movimenti delle labbra degli attori per farli meglio aderire al sonoro. E non c’è più bisogno dei doppiatori perché la voce originale degli attori viene sintetizzata e riprodotta nelle varie lingue dei paesi dove il film deve uscire. Ed infine i trailer vengono prodotti sempre dalle IA sulla base di una enorme mole di dati sui gusti degli spettatori, sulle loro emozioni studiate durante le proiezioni, non solo sulla base delle espressioni facciali ma persino dell’attività elettrica della pelle.
La stessa esperienza di visione di un film sta cambiando del resto. È possibile un mix tra cinema e giochi online. L’Intelligenza Artificiale impara dalle proprie esperienze, cambia e si adatta: è possibile offrire alla rete neurale dataset di livelli, ambientazioni, contesti, personaggi, in modo che nel game play ci restituisca mondi sempre diversi ma tutti possibili. L’Intelligenza Artificiale garantirebbe, così, un’esperienza di vita, più che di gioco, realistica, a maggior ragione se usata insieme ai visori di realtà virtuale. È dietro l’angolo l’uso del deep learning per creare storie che si adattino al modo di giocare del gamer e che generino personaggi in grado di ricordare e comportarsi coerentemente rispetto alla loro memoria di lavoro. Qualcosa del genere è già stato immaginato dai romanzieri che sono la fonte della serie Star Trek in cui di tanto in tanto il capitano e l’equipaggio si dedicano al trastullo di immergersi in mondi virtuali che sembrano del tutto realistici.
Questo è in sintesi ciò che è avvenuto finora nel mondo del cinema con l’introduzione delle innovazioni a cui ho accennato. Ma siccome tutto questo è in continua e rapidissima evoluzione non sappiamo ciò che tra qualche anno o addirittura tra qualche mese potrà accadere. Tu cosa immagini in tal proposito o cosa vorresti approfondire? Parlane nei comenti, grazie!