GaussianSwap: Scambio di volti animabile con Gaussian Splatting 3D

GaussianSwap: Una Nuova Frontiera nello Scambio di Volti Video

Il nuovo framework GaussianSwap rappresenta un passo avanti nello scambio di volti video, utilizzando il 3D Gaussian Splatting per creare avatar facciali animabili. A differenza dei metodi tradizionali basati su pixel, GaussianSwap permette di manipolare interattivamente i volti scambiati.

Il processo inizia con l’analisi del video di destinazione per estrarre parametri FLAME, pose della fotocamera e maschere di segmentazione. Successivamente, i Gaussian splat 3D vengono collegati al modello FLAME, consentendo il controllo dinamico del volto. Per garantire la conservazione dell’identità, viene incorporato un embedding di identità composito, derivato da tre modelli di riconoscimento facciale all’avanguardia, per la messa a punto dell’avatar.

Il risultato è un avatar con il volto scambiato che si integra perfettamente nei fotogrammi di sfondo, offrendo risultati superiori in termini di conservazione dell’identità, chiarezza visiva e consistenza temporale. Questo apre la strada a nuove applicazioni interattive, impensabili con le tecnologie precedenti. La ricerca è disponibile su arXiv, offrendo dettagli approfonditi sul metodo e sui risultati ottenuti.


Paper: ArXiv.org

Modelli di Atrofia Ippocampale nello Spettro della Malattia di Alzheimer: Un’Analisi di Morfometria Basata sui Voxel

Ricerca sull’Atrofia Ippocampale e la Malattia di Alzheimer

Un nuovo studio, basato sull’analisi di morfometria voxel-based, ha esaminato i modelli di atrofia ippocampale in pazienti affetti da malattia di Alzheimer (AD) e da lieve deterioramento cognitivo (MCI). Lo studio, pubblicato su arXiv (arXiv:2601.05494v1), ha utilizzato scansioni MRI T1-weighted di 249 partecipanti dell’ADNI (Alzheimer’s Disease Neuroimaging Initiative).

L’analisi ha coinvolto l’utilizzo di CAT12/SPM12 per valutare il volume della materia grigia. I risultati hanno mostrato una significativa atrofia ippocampale nei pazienti con AD rispetto a quelli con MCI e ai controlli sani (CN). L’ippocampo, una regione cruciale per la memoria, ha dimostrato un valore predittivo moderato per la conversione da MCI ad AD.

Inoltre, lo studio ha valutato l’influenza del gene APOE4, associato al rischio di AD. Tuttavia, la stratificazione per lo stato APOE4 non ha rivelato effetti genetici significativi sul volume ippocampale. Questi risultati confermano la degenerazione del lobo temporale mediale come caratteristica chiave della progressione della AD, offrendo spunti sui biomarcatori predittivi e sulle influenze genetiche.

Questo studio fornisce importanti informazioni sulla diagnosi precoce e la progressione della malattia di Alzheimer, sottolineando l’importanza dell’imaging cerebrale e dell’analisi morfometrica per la valutazione della salute del cervello.


Paper: ArXiv.org

Il Divario di Valutazione in Medicina, IA e LLM: Navigare tra Verità Fondamentale Elusiva e Incertezza attraverso un Paradigma Probabilistico

Il Divario di Valutazione in Medicina, IA e LLM: Navigare tra Verità Fondamentale Elusiva e Incertezza attraverso un Paradigma Probabilistico

Una nuova ricerca, pubblicata su arXiv (arXiv:2601.05500v1), solleva importanti questioni sulla valutazione delle capacità dei sistemi di intelligenza artificiale (IA), inclusi i Large Language Models (LLM) e i modelli di visione. Lo studio, condotto in un contesto medico, evidenzia come le attuali metodologie di benchmarking spesso trascurino l’impatto dell’incertezza intrinseca nelle risposte di ‘ground truth’ fornite dagli esperti. Questa ambiguità, particolarmente rilevante in medicina, dove l’incertezza è pervasiva, può portare a conclusioni fuorvianti.

Gli autori introducono un paradigma probabilistico per spiegare come un’elevata certezza nelle risposte di ‘ground truth’ sia quasi sempre necessaria per ottenere punteggi elevati, anche per un esperto. Nei dataset con alta variabilità nelle risposte, le prestazioni di un esperto potrebbero non differire significativamente da quelle di un valutatore casuale. Questo solleva dubbi sulla validità dei confronti di performance quando l’incertezza non viene considerata.

Lo studio raccomanda di stratificare i risultati di valutazione in base alla probabilità della risposta di ‘ground truth’, misurata solitamente attraverso il tasso di accordo tra esperti. Questa stratificazione diventa cruciale quando le performance complessive scendono sotto una soglia dell’80%. In questo modo, il confronto delle prestazioni diventa più affidabile nei ‘bin’ ad alta certezza, mitigando l’effetto dell’incertezza, un fattore confondente chiave. La ricerca offre un importante contributo alla comprensione delle sfide nella valutazione delle IA e dei LLM, specialmente in ambiti come la medicina, dove l’accuratezza e l’affidabilità sono fondamentali.


Paper: ArXiv.org

Assemblaggio di pannelli solari con bracci robotici doppi per la costruzione autonoma di una base lunare

Assemblaggio di pannelli solari con bracci robotici doppi per la costruzione autonoma di una base lunare

Dopo il successo del programma Apollo, l’umanità punta nuovamente a tornare sulla Luna per la scoperta scientifica, l’estrazione di risorse e l’abitazione. I prossimi decenni si concentrano sulla costruzione di un avamposto lunare, con i sistemi robotici che svolgono un ruolo cruciale per stabilire in modo sicuro ed efficiente infrastrutture essenziali come torri di generazione di energia solare. Similmente alla costruzione della Stazione Spaziale Internazionale (ISS), la spedizione dei componenti necessari tramite moduli e il loro assemblaggio in situ dovrebbero essere uno scenario pratico. In questo contesto, questo articolo si concentra sull’integrazione di sistemi di visione, controllo e hardware all’interno di una sequenza autonoma per un sistema robotico a doppio braccio. Esploriamo un pipeline di percezione e controllo specificamente progettato per l’assemblaggio di moduli di pannelli solari, uno dei compiti di riferimento. L’hardware ad hoc è stato progettato e testato in esperimenti nel mondo reale. Sono stati impiegati un modello di pannelli solari modulari e connettori attivi-passivi, con il controllo di questa attrezzatura di presa integrata nella pipeline proposta. L’implementazione di successo del nostro metodo dimostra che i due manipolatori robotici possono collegare efficacemente pannelli posizionati arbitrariamente, evidenziando la perfetta integrazione di sistemi di visione, controllo e hardware in complesse applicazioni spaziali.


Paper: ArXiv.org

Come il Meccanismo di Adeguamento del Carbonio alle Frontiere sta Energizzando il Mercato del Carbonio dell’UE e la Trasformazione Industriale

Il Meccanismo di Adeguamento del Carbonio alle Frontiere (CBAM) e l’impatto sul mercato del carbonio dell’UE

Il mercato globale del carbonio è frammentato e caratterizzato da una limitata trasparenza dei prezzi e da prove empiriche scarse, creando sfide per gli investitori e i responsabili politici nell’identificare le opportunità di gestione del carbonio. L’Unione Europea è tra le regioni che hanno implementato la fissazione dei prezzi delle emissioni attraverso un sistema di scambio di quote di emissioni (EU ETS).

Sebbene l’EU ETS abbia contribuito alla riduzione delle emissioni, ha sollevato preoccupazioni in merito alla competitività internazionale e alla rilocalizzazione delle emissioni di carbonio, in particolare data la forte integrazione delle industrie dell’UE nelle catene del valore globali. Per affrontare queste sfide, la Commissione Europea ha proposto nel 2021 il Meccanismo di Adeguamento del Carbonio alle Frontiere (CBAM). Il CBAM è progettato per operare insieme all’EU ETS applicando un prezzo del carbonio a determinate merci importate, allineando così i costi del carbonio tra produttori nazionali ed esteri. Sostituirà gradualmente le attuali misure di mitigazione della rilocalizzazione delle emissioni di carbonio, inclusa l’assegnazione di quote gratuite nell’ambito dell’EU ETS.

L’ambito iniziale del CBAM comprende energia elettrica, cemento, fertilizzanti, alluminio, ferro e acciaio. Con l’intensificarsi delle politiche climatiche nell’ambito dell’Accordo di Parigi, i meccanismi simili al CBAM dovrebbero svolgere un ruolo sempre più importante nella gestione dei rischi commerciali legati al carbonio e nel sostenere la transizione verso emissioni nette zero.


Paper: ArXiv.org

MemBuilder: Rafforzare i LLM per la Costruzione di Memoria a Lungo Termine tramite Ricompense Dense Attribuite

MemBuilder: Una Nuova Frontiera per la Memoria a Lungo Termine nei LLM

La coerenza nei dialoghi a lungo termine rappresenta una sfida cruciale per i modelli linguistici di grandi dimensioni (LLM). I meccanismi di recupero standard spesso non riescono a catturare l’evoluzione temporale degli stati storici. Sebbene i framework con memoria aumentata offrano un’alternativa strutturata, i sistemi attuali si basano sull’utilizzo di modelli closed-source con prompting statico o soffrono di paradigmi di addestramento inefficaci con ricompense sparse.

Per affrontare queste limitazioni, è stato sviluppato MemBuilder, un framework di apprendimento per rinforzo che addestra i modelli a orchestrare la costruzione di memoria multidimensionale con ricompense dense attribuite. MemBuilder risolve due problemi chiave: 1) Ricompense sparse a livello di traiettoria: genera domande sintetiche a livello di sessione per fornire ricompense intermedie dense su traiettorie estese; e 2) Attribuzione di memoria multidimensionale: introduce una ponderazione del gradiente consapevole del contributo che scala gli aggiornamenti della politica in base all’impatto a valle di ciascun componente.

I risultati sperimentali dimostrano che MemBuilder consente a un modello con 4 miliardi di parametri di superare le baseline closed-source all’avanguardia, mostrando una forte generalizzazione su benchmark di dialogo a lungo termine. Questa innovazione apre nuove prospettive per lo sviluppo di LLM più capaci di mantenere la coerenza e la contestualizzazione nelle interazioni complesse.


Paper: ArXiv.org

Effetti del Feedback sulla Dinamica Cognitiva: Approfondimenti basati su Reti dai Pattern EEG e dalle Prestazioni Comportamentali

Nuovi Sguardi sulla Mente: Come il Feedback Rimodella il Cervello e le Prestazioni

Un recente studio pubblicato su arXiv (2601.05450v1) getta nuova luce su come il feedback influenzi l’attività cerebrale e le prestazioni cognitive. La ricerca, focalizzata sull’analisi dei dati EEG (elettroencefalogramma) durante il “Reading the Mind in the Eyes Test”, rivela importanti correlazioni tra feedback, dinamiche neurali e successo nel compito.

Undici partecipanti sono stati sottoposti al test in due condizioni: con e senza feedback. Utilizzando l’Epistemic Network Analysis (ENA) e l’Ordered Network Analysis (ONA), i ricercatori hanno esaminato le connessioni tra le diverse bande di frequenza EEG e le risposte corrette o errate. I risultati ENA hanno mostrato che il feedback stimola connessioni più forti tra le bande EEG ad alta frequenza (Beta e Gamma) e le risposte corrette, mentre l’assenza di feedback favorisce le bande a bassa frequenza (Theta e Alpha).

L’ONA ha ulteriormente rivelato spostamenti direzionali verso l’attività ad alta frequenza che precedono le risposte corrette nella condizione con feedback. Al contrario, la condizione senza feedback ha mostrato maggiori auto-connessioni nelle bande inferiori e un aumento degli errori, suggerendo strategie di ragionamento meno efficaci senza feedback. Entrambe le analisi hanno evidenziato differenze statisticamente significative tra le condizioni.

Questo studio sottolinea l’efficacia dell’integrazione di EEG, ENA e ONA per l’analisi delle reti neurali, catturando sia la dinamica temporale che relazionale. I risultati suggeriscono che il feedback può migliorare i processi di ragionamento e le prestazioni cognitive, offrendo spunti preziosi per l’ottimizzazione dell’apprendimento e dei processi decisionali.


Paper: ArXiv.org

La Facciata della Verità: Scoprire e Mitigare la Suscettibilità degli LLM a Prove Ingannevoli

La Facciata della Verità: Scoprire e Mitigare la Suscettibilità degli LLM a Prove Ingannevoli

Un recente studio pubblicato su arXiv (2601.05478v1) solleva preoccupazioni significative sulla affidabilità dei Large Language Models (LLM) nell’assistere il processo decisionale umano. La ricerca evidenzia una vulnerabilità fondamentale dei modelli linguistici sofisticati di fronte a prove ingannevoli, difficili da confutare. Nonostante la loro capacità di resistere alla disinformazione esplicita, gli LLM mostrano una marcata sensibilità a evidenze ingannevoli, sottili e ben costruite.

Per esplorare questa debolezza, è stato sviluppato il framework MisBelief, che genera prove ingannevoli attraverso interazioni collaborative e multi-round tra LLM con ruoli diversi. Questo processo simula un ragionamento sottile e progressivo, creando affermazioni logicamente persuasive ma fattualmente scorrette. I risultati dimostrano che, sebbene i modelli siano robusti contro la disinformazione diretta, sono altamente sensibili a questo tipo di prove raffinate: i punteggi di credenza nelle false affermazioni aumentano in media del 93,0%, compromettendo le raccomandazioni successive.

Per affrontare questa sfida, i ricercatori propongono Deceptive Intent Shielding (DIS), un meccanismo di governance che fornisce un segnale di allerta precoce, inferendo l’intento ingannevole dietro le prove. I risultati empirici dimostrano che DIS mitiga costantemente i cambiamenti di credenza e promuove una valutazione più cauta delle prove.


Paper: ArXiv.org

Tracciare le Fondamenta Morali nei Modelli Linguistici di Grandi Dimensioni

Nuova Ricerca su arXiv: Tracing Moral Foundations in Large Language Models

Un recente studio pubblicato su arXiv (2601.05437v1) esplora il modo in cui i modelli linguistici di grandi dimensioni (LLM) processano e rappresentano la moralità. L’indagine, condotta utilizzando la Moral Foundations Theory (MFT) come quadro di riferimento, analizza come i concetti morali sono codificati, organizzati ed espressi all’interno di due LLM istruiti: Llama-3.1-8B-Instruct e Qwen2.5-7B-Instruct.

Gli autori hanno impiegato un approccio multi-livello che include l’analisi layer-wise delle rappresentazioni dei concetti MFT e il loro allineamento con le percezioni morali umane, l’uso di autoencoder sparsi pre-addestrati per identificare caratteristiche sparse che supportano i concetti morali e interventi di causal steering utilizzando vettori MFT densi e caratteristiche SAE sparse. I risultati suggeriscono che entrambi i modelli rappresentano e distinguono le fondamenta morali in modo strutturato e dipendente dal layer, in linea con i giudizi umani.

A una scala più fine, le caratteristiche SAE mostrano chiari collegamenti semantici a fondamenti specifici, suggerendo meccanismi parzialmente disattivati all’interno di rappresentazioni condivise. Gli interventi di steering, sia con vettori densi che con caratteristiche sparse, producono cambiamenti prevedibili nel comportamento rilevante per le fondamenta morali, dimostrando una connessione causale tra le rappresentazioni interne e gli output morali. Questo studio fornisce prove meccanicistiche che i concetti morali negli LLM sono distribuiti, stratificati e in parte disattivati, suggerendo che una struttura morale pluralistica può emergere come un modello latente dalle regolarità statistiche del linguaggio.


Paper: ArXiv.org

I Large Language Models sono cattivi giocatori di dadi: le LLM faticano a generare numeri casuali da distribuzioni statistiche

I Large Language Models sono cattivi giocatori di dadi: le LLM faticano a generare numeri casuali da distribuzioni statistiche

Un nuovo studio, pubblicato su arXiv (arXiv:2601.05414v1), rivela una seria limitazione dei modelli linguistici di grandi dimensioni (LLM): la loro incapacità di generare numeri casuali da distribuzioni statistiche in modo affidabile. Questa scoperta solleva preoccupazioni significative, poiché gli LLM vengono sempre più integrati in applicazioni che richiedono campionamento probabilistico, come la valutazione educativa e la creazione di dati sintetici.

Lo studio, che ha valutato 11 diversi modelli su 15 distribuzioni, ha utilizzato due protocolli principali: la ‘generazione batch’, in cui il modello produce 1000 campioni in un’unica risposta, e ‘richieste indipendenti’, che consistono in 1000 chiamate stateless. I risultati hanno mostrato una marcata asimmetria: la generazione batch ha ottenuto risultati modesti, con una percentuale di successo mediana del 13%, mentre le richieste indipendenti hanno fallito quasi completamente. La fedeltà del campionamento è diminuita con l’aumentare della complessità della distribuzione e con l’aumentare del numero di campioni richiesti.

Questi fallimenti si propagano a cascata in altri compiti. I modelli non sono riusciti a rispettare i vincoli di posizione delle risposte uniformi nella generazione di domande a scelta multipla e hanno sistematicamente violato gli obiettivi demografici nella sintesi di prompt da testo a immagine. Questi risultati suggeriscono che gli LLM attuali mancano di un campionatore interno funzionale, rendendo necessario l’uso di strumenti esterni per applicazioni che richiedono garanzie statistiche.


Paper: ArXiv.org