APPLICAZIONE AI IMMERSIVA
A tu per tu con Chaplin.
Dal 1947, Fondazione Cineteca Italiana svolge un’ininterrotta attività di diffusione della cultura cinematografica in Italia e all’estero.
Dal 1947, Fondazione Cineteca Italiana svolge un’ininterrotta attività di diffusione della cultura cinematografica in Italia e all’estero.
Cineteca Milano
Nell’ambito del progetto Talking Dreams, promosso da Cineteca Milano, l’obiettivo era introdurre all’interno del MIC – Museo Interattivo del Cinema una nuova modalità di fruizione dei contenuti, capace di mettere in relazione patrimonio cinematografico, innovazione digitale e pubblico. La sfida consisteva nel progettare un’esperienza accessibile e coinvolgente, in grado di avvicinare visitatori di età e profili diversi alla figura di Charlie Chaplin e al mondo del cinema muto, attraverso un’interazione naturale e immediata.
Il progetto richiedeva di tradurre un immaginario fortemente iconico in un sistema tecnologico credibile, capace di sostenere un dialogo in tempo reale con i visitatori e di restituire contenuti coerenti con il contesto museale. Allo stesso tempo, era necessario integrare l’esperienza all’interno del percorso espositivo del museo, mantenendo equilibrio tra dimensione educativa, intrattenimento e qualità dell’interazione.
DkR ha realizzato la componente tecnologica basata su intelligenza artificiale per l’installazione “A tu per tu con Charlie Chaplin”, sviluppando un sistema conversazionale pensato per permettere ai visitatori di dialogare con Charlot in tempo reale. L’esperienza è stata concepita per rendere l’interazione semplice e diretta, trasformando la presenza del personaggio in uno strumento di mediazione culturale capace di attivare curiosità, approfondimento e partecipazione.
Talking Dreams è un sistema tecnologico integrato che combina modellazione 3D avanzata, animazione e Intelligenza Artificiale per la creazione di un digital twin conversazionale. Il personaggio è realizzato tramite tecnologia MetaHuman e animato a partire da sessioni di Motion Capture, che permettono di riprodurre movimenti e gestualità coerenti con il linguaggio espressivo del soggetto rappresentato.
Il sistema integra diversi livelli di AI: un modulo di speech-to-text per la trascrizione delle domande dell’utente, un modello linguistico (LLM) per l’elaborazione delle risposte, vincolato sia alla conoscenza generale del modello sia a un corpus documentale dedicato fornito da Fondazione Cineteca Italiana e a specifiche linee guida progettuali sul personaggio, e un modello text-to-speech basato su voice cloning, sviluppato a partire dalla voce del doppiatore italiano di riferimento. In parallelo, un modello AI locale, eseguito sul sistema che gestisce l’esperienza, genera in tempo reale il lip sync e le micro-espressioni facciali, sincronizzando movimenti di bocca e occhi con la traccia audio. L’insieme di queste tecnologie consente un’interazione naturale e coerente tra utente e avatar, combinando risposta vocale, animazione e interpretazione del contesto in tempo reale.