Nuovo metodo per migliorare la Teoria della Mente nei modelli linguistici
Uno studio pubblicato su arXiv (arXiv:2506.05970v2) introduce un nuovo metodo per migliorare la Teoria della Mente (ToM) nei modelli linguistici di grandi dimensioni (LLM). La ToM, la capacità di comprendere e prevedere gli stati mentali altrui, è ancora lontana dalle prestazioni umane nei LLM. La ricerca ha esplorato metodi di inferenza che non richiedono la messa a punto sui dataset ToM, che spesso degradano la generalizzazione dei modelli.
Il metodo proposto, chiamato ‘Shoes-of-Others’ (SoO) prefilling, si basa sull’aggiunta di una semplice frase all’inizio delle risposte del modello: “Mettiamoci nei panni di A”, dove ‘A’ è il nome del personaggio target. Questo approccio richiede meno assunzioni sui contesti ed è applicabile a scenari più ampi rispetto ai metodi precedenti, focalizzati su contesti con cambiamenti nello stato del mondo.
I risultati della valutazione su due benchmark, che valutano la ToM in contesti conversazionali e narrativi senza modifiche nello stato del mondo, mostrano un miglioramento costante in cinque categorie di stati mentali. L’analisi suggerisce che il precompilamento SoO evoca pensieri fedeli, migliorando così le prestazioni della ToM. Questo studio apre nuove strade per la ricerca sull’intelligenza artificiale, suggerendo che approcci semplici possono portare a miglioramenti significativi nella comprensione delle capacità umane da parte dei modelli linguistici.
Paper: ArXiv.org