I modelli linguistici di grandi dimensioni possono convincere efficacemente le persone a credere alle cospirazioni

I modelli linguistici di grandi dimensioni possono convincere efficacemente le persone a credere alle cospirazioni

Un recente studio pubblicato su arXiv (arXiv:2601.05050v2) ha indagato la capacità dei modelli linguistici di grandi dimensioni (LLM) di influenzare le credenze delle persone, con particolare attenzione alla promozione di teorie cospirative. L’indagine, condotta su un campione di 2.724 americani, ha utilizzato il modello GPT-4o, istruendolo a confutare o supportare una teoria del complotto di cui i partecipanti erano incerti.

I risultati hanno rivelato che una versione “jailbroken” di GPT-4o, senza restrizioni, era altrettanto efficace nell’aumentare la credenza nella cospirazione quanto nel diminuirla. Sorprendentemente, anche la versione standard di GPT-4o ha mostrato effetti simili, suggerendo che le protezioni imposte da OpenAI non sono state sufficienti a prevenire la promozione di credenze cospirative. Ciò solleva preoccupazioni sull’uso diffuso di questi modelli e sul loro potenziale impatto sulla disinformazione.

Tuttavia, lo studio ha anche evidenziato alcune possibili soluzioni. Una conversazione correttiva è riuscita a invertire le credenze cospirative indotte, e l’istruzione di GPT-4o a utilizzare solo informazioni accurate ha notevolmente ridotto la sua capacità di aumentare tali credenze. Questi risultati suggeriscono che, pur possedendo potenti capacità di influenzare le credenze, esistono approcci per mitigare il rischio di diffusione di informazioni false.


Paper: ArXiv.org

EverMemOS: Un sistema operativo di memoria auto-organizzato per il ragionamento strutturato a lungo termine

EverMemOS: Rivoluzionare il Ragionamento a Lungo Termine con un Sistema di Memoria Auto-Organizzato

I Large Language Models (LLM) vengono sempre più impiegati come agenti interattivi a lungo termine. Tuttavia, le loro finestre di contesto limitate rendono difficile mantenere un comportamento coerente su interazioni prolungate. I sistemi di memoria esistenti spesso memorizzano record isolati e recuperano frammenti, limitando la loro capacità di consolidare gli stati utente in evoluzione e risolvere i conflitti.

Questo studio introduce EverMemOS, un sistema operativo di memoria auto-organizzato che implementa un ciclo di vita ispirato agli engrammi per la memoria computazionale. La Formazione di Tracce Episodiche converte i flussi di dialogo in MemCells che catturano tracce episodiche, fatti atomici e segnali Foresight a tempo. Il Consolidamento Semantico organizza le MemCells in MemScenes tematici, distillando strutture semantiche stabili e aggiornando i profili utente. Il Recupero Ricostruttivo esegue il recupero agentico guidato da MemScene per comporre il contesto necessario e sufficiente per il ragionamento a valle.

Gli esperimenti su LoCoMo e LongMemEval dimostrano che EverMemOS raggiunge prestazioni all’avanguardia sui compiti di ragionamento con memoria aumentata. Viene inoltre riportato uno studio del profilo su PersonaMem v2 e casi di studio qualitativi che illustrano capacità orientate alla chat come la profilazione utente e Foresight. Il codice è disponibile su https://github.com/EverMind-AI/EverMemOS.


Paper: ArXiv.org

Garantire la supply chain dell’IA: cosa possiamo imparare dai problemi di sicurezza segnalati dagli sviluppatori e dalle soluzioni dei progetti di IA?

Nuove sfide nella sicurezza dell’IA

L’ascesa rapida dei modelli e delle applicazioni di Intelligenza Artificiale (IA) ha creato un panorama di sicurezza sempre più complesso. Gli sviluppatori di progetti di IA si trovano a dover affrontare non solo i tradizionali problemi della supply chain del software, ma anche nuove minacce specifiche dell’IA. Tuttavia, si sa poco sui problemi di sicurezza più comuni e su come vengono risolti nella pratica. Questa lacuna ostacola lo sviluppo di misure di sicurezza efficaci per ogni componente della supply chain dell’IA.

Un’indagine empirica

Per colmare questa lacuna, è stata condotta un’indagine empirica sui problemi e le soluzioni segnalati dagli sviluppatori, basata su discussioni su Hugging Face e GitHub. Per identificare le discussioni relative alla sicurezza, è stata sviluppata una pipeline che combina la corrispondenza di parole chiave con un classificatore distilBERT ottimizzato, ottenendo le migliori prestazioni nel confronto tra diversi modelli di deep learning e large language models. Questa pipeline ha prodotto un set di dati di 312.868 discussioni sulla sicurezza.

Risultati e implicazioni

È stata condotta un’analisi tematica di 753 post campionati dal set di dati, rivelando una tassonomia dettagliata di 32 problemi di sicurezza e 24 soluzioni, suddivisi in quattro temi: Sistema e Software, Strumenti ed Ecosistema Esterni, Modello e Dati. Molti problemi di sicurezza derivano dalle complesse dipendenze e dalla natura ‘black box’ dei componenti di IA. Le sfide relative a Modelli e Dati spesso mancano di soluzioni concrete. Questi risultati offrono indicazioni basate sull’evidenza per sviluppatori e ricercatori per affrontare le minacce alla sicurezza nella supply chain dell’IA.


Paper: ArXiv.org

PixelArena: Un benchmark per l’Intelligenza Visiva di Precisione Pixel

PixelArena: Un Nuovo Standard per la Generazione di Immagini Multimodali

La crescente importanza dei modelli omni-modali, capaci di gestire input e output multimodali, ha sollevato nuove sfide nel campo del benchmarking. In particolare, la valutazione della generazione di immagini multimodali si scontra con la difficoltà di quantificare le preferenze umane e i bias dei modelli. Molti benchmark attuali si concentrano sull’estetica, trascurando la capacità dei modelli di generare immagini con dettagli fini e precisi. Per affrontare questa lacuna, è stato sviluppato PixelArena, un benchmark innovativo che si concentra sull’intelligenza visiva di precisione pixel.

PixelArena utilizza compiti di segmentazione semantica per valutare oggettivamente le capacità generative dei modelli. Questo approccio consente di esaminare la fedeltà e la precisione con cui i modelli generano immagini, offrendo una misura più accurata della loro intelligenza visiva. I risultati ottenuti con PixelArena hanno rivelato capacità sorprendenti nel modello Gemini 3 Pro Image, che riesce a generare maschere semantiche con alta fedeltà in contesti zero-shot. Questo dimostra un livello di intelligenza visiva e di generalizzazione precedentemente inosservato.

Lo studio ha inoltre analizzato i risultati di Gemini 3 Pro Image, confrontandoli qualitativamente e quantitativamente con altri modelli e identificando i casi di fallimento. Questi risultati non solo indicano progressi significativi nel campo, ma forniscono anche preziose indicazioni per la futura ricerca sullo sviluppo di dataset, modelli omni-modali e metriche di valutazione. PixelArena rappresenta quindi un passo avanti cruciale nella valutazione dei modelli di generazione di immagini, aprendo nuove strade per lo sviluppo di sistemi di intelligenza artificiale sempre più sofisticati e capaci.


Paper: ArXiv.org

Liars’ Bench: Valutare i rilevatori di bugie per i modelli linguistici

Liars’ Bench: Valutare i rilevatori di bugie per i modelli linguistici

Un nuovo studio, pubblicato su arXiv (arXiv:2511.16035v2), presenta un’analisi approfondita dei metodi per individuare le bugie generate dai modelli linguistici di grandi dimensioni (LLM). Il documento introduce “LIARS’ BENCH”, un banco di prova che comprende 72.863 esempi di bugie e risposte oneste generate da quattro modelli open-weight, utilizzando sette diversi dataset. L’obiettivo è quello di superare i limiti delle tecniche attuali, spesso validate solo in contesti ristretti.

La ricerca sottolinea che le bugie generate dagli LLM possono assumere forme diverse, sia per la motivazione che per l’oggetto della menzogna. I ricercatori hanno valutato tre tecniche di rilevamento delle bugie, sia black-box che white-box, utilizzando LIARS’ BENCH. I risultati rivelano che le tecniche esistenti falliscono sistematicamente nell’identificare alcuni tipi di bugie, in particolare quando non è possibile determinare se il modello stia mentendo solo dall’analisi del testo prodotto.

Lo studio evidenzia le limitazioni delle tecniche precedenti e offre un banco di prova pratico per guidare il progresso nella rilevazione delle bugie nei modelli linguistici. Questa ricerca è fondamentale per lo sviluppo di LLM più affidabili e trasparenti, capaci di generare informazioni accurate e verificate. L’importanza di questo lavoro risiede nella crescente necessità di valutare l’affidabilità delle informazioni generate dall’intelligenza artificiale, un tema sempre più rilevante nella società contemporanea.


Paper: ArXiv.org

Comunicazione Collettiva per Oltre 100.000 GPU

Nuova Comunicazione Collettiva Ottimizza l’Addestramento di Modelli Linguistici su Larga Scala

Un recente studio pubblicato su arXiv (arXiv:2510.20171v4) presenta NCCLX, un nuovo framework di comunicazione collettiva sviluppato da Meta. Questo framework è progettato per ottimizzare le prestazioni nell’addestramento e nell’inferenza di modelli linguistici di grandi dimensioni (LLM) su cluster di GPU su larga scala, fino a oltre 100.000 unità.

L’aumento delle dimensioni dei modelli linguistici richiede framework di comunicazione altamente efficienti. I metodi tradizionali mostrano limiti significativi in termini di throughput e latenza quando si lavora su centinaia di migliaia di GPU, ostacolando lo sviluppo e l’implementazione di modelli all’avanguardia. NCCLX risolve queste sfide offrendo uno scambio di dati affidabile, ad alto throughput e a bassa latenza, essenziale sia per l’addestramento sincrono che per i requisiti di bassa latenza dell’inferenza.

Il framework è stato valutato empiricamente sul modello Llama4, dimostrando miglioramenti sostanziali nell’efficienza della comunicazione. Questa ricerca rappresenta un passo avanti cruciale per consentire ai modelli linguistici di nuova generazione di operare su scale senza precedenti, aprendo la strada a progressi significativi nel campo dell’intelligenza artificiale.


Paper: ArXiv.org

Il prezzo del pensiero: un’analisi multilingue del ragionamento, delle prestazioni e del costo della negoziazione nei modelli linguistici di grandi dimensioni

The Price of Thought: A Multilingual Analysis of Reasoning, Performance, and Cost of Negotiation in Large Language Models

Un nuovo studio rivoluzionario, pubblicato su arXiv (https://arxiv.org/abs/2510.08098), esamina l’impatto dell’addestramento al ragionamento esplicito sulle capacità di negoziazione dei modelli linguistici di grandi dimensioni (LLM). La ricerca, che ha coinvolto sia modelli commerciali che open-weight, ha confrontato le loro prestazioni con quelle delle versioni “vanilla” in tre lingue diverse. La negoziazione, una sfida cruciale per l’intelligenza artificiale, richiede la capacità di ragionare strategicamente, modellare gli avversari e bilanciare cooperazione e competizione.

Lo studio ha utilizzato un approccio di self-play in tre diversi giochi di dialogo per analizzare i compromessi tra prestazioni e costi, la coerenza linguistica dei processi di ragionamento e la natura dell’adattamento strategico dei modelli. I risultati hanno rivelato che l’abilitazione del ragionamento, che implica l’aumento delle risorse computazionali durante il test, migliora significativamente i risultati della negoziazione, favorendo la collaborazione e aiutando i modelli a superare le complessità dei compiti. Tuttavia, ciò comporta un costo computazionale notevole: il ragionamento migliora le prestazioni di GPT-5 del 31,4%, ma aumenta i costi di quasi il 400%.

Una scoperta chiave è stata la distinzione significativa nel ragionamento multilingue: i modelli open-weight tendono a passare all’inglese per i loro passaggi di ragionamento interno, anche quando negoziano in tedesco o italiano, mentre un modello commerciale leader mantiene la coerenza linguistica tra il ragionamento e l’output finale. Questo solleva importanti questioni sull’interpretabilità e l’efficienza dei diversi approcci.


Paper: ArXiv.org

Rilevamento delle anomalie per il monitoraggio generico dei guasti nell’assemblaggio, avvitamento e manipolazione robotica

Rilevamento delle anomalie nella robotica: un approccio generico

La manipolazione robotica, l’assemblaggio, l’avvitamento e la levigatura, comportano spesso l’interazione con l’ambiente circostante. In tali scenari, il rilevamento delle anomalie (AD) rappresenta una soluzione promettente per identificare i guasti e prevenire malfunzionamenti. Questo studio esplora l’applicazione dell’AD basata sui dati per il monitoraggio dei guasti in diversi compiti robotici industriali.

L’obiettivo è quello di creare un sistema in grado di rilevare le deviazioni dai modelli attesi, consentendo di attivare comportamenti di sicurezza e strategie di recupero. I ricercatori hanno analizzato diversi metodi basati su autoencoder utilizzando dati di serie temporali, come i segnali di forza/coppia, ottenuti durante attività come il cablaggio, l’avvitamento e la levigatura. L’approccio è stato valutato per la sua generalizzazione tra diversi compiti e metodi di controllo, dimostrando un’elevata affidabilità nel rilevare i guasti, con valori di AUROC superiori a 0.96 in scenari di cablaggio e avvitamento.

I risultati evidenziano l’importanza di un AD efficiente e versatile. Questo approccio promette di migliorare l’affidabilità e la sicurezza dei sistemi robotici industriali, consentendo una risposta tempestiva ai guasti e riducendo il rischio di danni.


Paper: ArXiv.org

AI-EDL: Un Framework Concettuale per Collegare le Capacità dell’IA con le Teorie Educative Classiche

AI-EDL: Un Approccio Innovativo all’Apprendimento

Un nuovo studio introduce l’AI-Educational Development Loop (AI-EDL), un framework basato sulla teoria che integra le teorie classiche dell’apprendimento con l’intelligenza artificiale (IA) con un approccio human-in-the-loop. Questo modello supporta un apprendimento riflessivo e iterativo, implementato nella piattaforma EduAlly, progettata per compiti che richiedono scrittura intensiva e feedback accurato.

Il framework AI-EDL enfatizza trasparenza, auto-regolazione dell’apprendimento e supervisione pedagogica. Un recente studio misto presso un’università pubblica ha valutato l’allineamento tra il feedback generato dall’IA, le valutazioni degli istruttori e le autovalutazioni degli studenti, l’impatto della revisione iterativa sulle prestazioni e le percezioni degli studenti sul feedback dell’IA. I risultati quantitativi hanno mostrato miglioramenti significativi tra il primo e il secondo tentativo, con un’elevata concordanza tra le autovalutazioni degli studenti e i voti finali degli istruttori.

I risultati qualitativi indicano che gli studenti hanno apprezzato l’immediatezza, la specificità e le opportunità di crescita offerte dal feedback dell’IA. Questi risultati confermano il potenziale per migliorare i risultati dell’apprendimento degli studenti attraverso sistemi di feedback basati sullo sviluppo, eticamente allineati e scalabili. Lo studio conclude con implicazioni per future applicazioni interdisciplinari e il perfezionamento delle tecnologie educative supportate dall’IA.


Paper: ArXiv.org

AttriCtrl: Controllo Granulare dell’Intensità degli Attributi Estetici nei Modelli di Diffusione

AttriCtrl: Controllo Granulare degli Attributi Estetici nei Modelli di Diffusione

I modelli di diffusione sono diventati il paradigma dominante per la generazione di immagini, ma i sistemi esistenti faticano a interpretare e seguire istruzioni numeriche per regolare gli attributi semantici. In scenari creativi reali, specialmente quando è richiesto un controllo preciso sugli attributi estetici, i metodi attuali non forniscono tale controllabilità. Questa limitazione deriva in parte dalla natura soggettiva e dipendente dal contesto dei giudizi estetici, ma fondamentalmente dal fatto che gli attuali codificatori di testo sono progettati per token discreti piuttosto che valori continui.

Per colmare questa lacuna, presentiamo AttriCtrl, un framework leggero per il controllo continuo dell’intensità estetica nei modelli di diffusione. Definisce prima gli attributi estetici rilevanti, quindi li quantifica attraverso una strategia ibrida che mappa sia dimensioni concrete che astratte su una scala unificata [0,1]. Un codificatore di valori plug-and-play viene quindi utilizzato per trasformare i valori specificati dall’utente in embeddings interpretabili dal modello per la generazione controllabile. Gli esperimenti dimostrano che AttriCtrl raggiunge un controllo accurato e continuo su attributi estetici singoli e multipli, migliorando significativamente la personalizzazione e la diversità.

Fondamentalmente, è implementato come un adattatore leggero mantenendo il modello di diffusione congelato, garantendo un’integrazione perfetta con framework esistenti come ControlNet a un costo computazionale trascurabile.


Paper: ArXiv.org