EverMemOS: Un sistema operativo di memoria auto-organizzato per il ragionamento strutturato a lungo termine

EverMemOS: Rivoluzionare il Ragionamento a Lungo Termine con un Sistema di Memoria Auto-Organizzato

I Large Language Models (LLM) vengono sempre più impiegati come agenti interattivi a lungo termine. Tuttavia, le loro finestre di contesto limitate rendono difficile mantenere un comportamento coerente su interazioni prolungate. I sistemi di memoria esistenti spesso memorizzano record isolati e recuperano frammenti, limitando la loro capacità di consolidare gli stati utente in evoluzione e risolvere i conflitti.

Questo studio introduce EverMemOS, un sistema operativo di memoria auto-organizzato che implementa un ciclo di vita ispirato agli engrammi per la memoria computazionale. La Formazione di Tracce Episodiche converte i flussi di dialogo in MemCells che catturano tracce episodiche, fatti atomici e segnali Foresight a tempo. Il Consolidamento Semantico organizza le MemCells in MemScenes tematici, distillando strutture semantiche stabili e aggiornando i profili utente. Il Recupero Ricostruttivo esegue il recupero agentico guidato da MemScene per comporre il contesto necessario e sufficiente per il ragionamento a valle.

Gli esperimenti su LoCoMo e LongMemEval dimostrano che EverMemOS raggiunge prestazioni all’avanguardia sui compiti di ragionamento con memoria aumentata. Viene inoltre riportato uno studio del profilo su PersonaMem v2 e casi di studio qualitativi che illustrano capacità orientate alla chat come la profilazione utente e Foresight. Il codice è disponibile su https://github.com/EverMind-AI/EverMemOS.


Paper: ArXiv.org

Trasformare il Feedback in Memoria: Un Nuovo Approccio per i Modelli Linguistici

Distillare il Feedback in Memoria: Un Nuovo Approccio

Un recente studio pubblicato su arXiv (2601.05960v1) presenta un innovativo framework per ottimizzare i modelli linguistici di grandi dimensioni (LLMs). Il lavoro, intitolato “Distilling Feedback into Memory-as-a-Tool”, propone un metodo per ridurre i costi computazionali associati al ragionamento durante l’inferenza. L’idea centrale è quella di trasformare le critiche ricevute in tempo reale in linee guida recuperabili, sfruttando un sistema di memoria basato su file e strumenti controllati da agenti.

Il framework si basa sull'”ammortamento” dei costi di inferenza. Invece di ripetere costosi calcoli a ogni iterazione, il sistema converte i feedback in informazioni memorizzate e riutilizzabili. Questo approccio permette ai modelli di apprendere e migliorare in modo più efficiente, riducendo la dipendenza da pipeline di raffinamento costose. L’efficacia del metodo è stata valutata utilizzando il Rubric Feedback Bench, un nuovo dataset progettato per l’apprendimento basato su rubric. I risultati degli esperimenti mostrano che i modelli LLM potenziati con questo framework raggiungono rapidamente le prestazioni delle pipeline di raffinamento, con una significativa riduzione dei costi di inferenza.

Questo lavoro rappresenta un passo importante verso l’ottimizzazione dei modelli linguistici, rendendo l’inferenza più efficiente e aprendo nuove possibilità per l’applicazione di LLMs in contesti dove le risorse computazionali sono limitate. L’approccio proposto potrebbe avere un impatto significativo nello sviluppo di applicazioni più veloci, economiche e sostenibili basate sull’intelligenza artificiale.


Paper: ArXiv.org