Le reti multistrato caratterizzano i modelli di mobilità umana per settore industriale durante la tempesta invernale del Texas del 2021

Studio rivela modelli di mobilità durante la tempesta invernale del Texas del 2021

Un nuovo studio, pubblicato su arXiv (2509.03642), esplora i modelli di mobilità umana durante la tempesta invernale del Texas del 2021, utilizzando reti multistrato. La ricerca, condotta per migliorare la pianificazione delle emergenze e la gestione dei disastri, ha analizzato i movimenti tra diverse aree geografiche (census tracts) e categorie industriali (scuole, ospedali, ecc.).

I risultati mostrano una significativa riduzione degli spostamenti verso servizi sanitari ambulatoriali, ristoranti e scuole. Al contrario, è stata osservata una priorizzazione degli spostamenti verso negozi di alimentari e stazioni di servizio. Lo studio ha anche esaminato la prevedibilità dei movimenti in entrata e in uscita dai census tracts, rivelando che i movimenti in entrata sono più difficili da prevedere, soprattutto durante la tempesta.

Questi risultati offrono importanti indicazioni per le decisioni legate alla mobilità durante eventi meteorologici estremi. La comprensione di come le persone si muovono e quali settori vengono prioritizzati può aiutare a migliorare le strategie di risposta alle emergenze e la gestione delle risorse.


Paper: ArXiv.org

Reservoir Computing di Nuova Generazione per l’Inferenza Dinamica

Nuova frontiera nel Reservoir Computing per la modellazione di sistemi dinamici

Un recente studio pubblicato su arXiv (arXiv:2509.11338v3) presenta un’innovativa implementazione del reservoir computing di nuova generazione (NGRC) per la modellazione di sistemi dinamici, utilizzando dati di serie temporali. Questo metodo, semplice e scalabile, si basa su una proiezione non lineare pseudo-casuale degli input incorporati nel tempo, permettendo di scegliere la dimensione dello spazio delle caratteristiche indipendentemente dalla dimensione dell’osservazione. L’approccio si configura come un’alternativa flessibile alle proiezioni NGRC basate sui polinomi.

I ricercatori hanno dimostrato l’efficacia del metodo su compiti di riferimento, tra cui la ricostruzione di attrattori e la stima di diagrammi di biforcazione, utilizzando misurazioni parziali e rumorose. Un aspetto interessante è che piccole quantità di rumore di misurazione durante l’addestramento fungono da efficace regolarizzatore, migliorando la stabilità autonoma a lungo termine rispetto alla semplice regressione standard. I modelli sviluppati si sono dimostrati stabili su lunghi periodi e capaci di generalizzare oltre i dati di addestramento.

Questo framework offre un controllo esplicito dello stato del sistema durante la previsione, proprietà che lo rendono ideale per applicazioni come la modellazione surrogata e le applicazioni di digital twin. La ricerca apre nuove prospettive per la simulazione e la previsione di fenomeni complessi, con potenziali applicazioni in diversi campi della scienza e dell’ingegneria.


Paper: ArXiv.org

Previsioni del Calore Estremo diurno e notturno a Parigi

Previsioni del Calore Estremo diurno e notturno a Parigi

Un recente studio pubblicato su arXiv (arXiv:2508.12886v4) esplora l’applicazione dell’apprendimento statistico quantile per prevedere le temperature dell’aria estreme a Parigi. La ricerca, condotta utilizzando i dati della stazione meteorologica di Paris-Montsouris, si concentra sulla previsione dei valori Q(.90) sia diurni che notturni, ovvero il 90° percentile delle temperature. Questo approccio, definito come una forma di “piccola IA”, si concentra sull’identificazione delle temperature più elevate e rare, piuttosto che tentare di prevedere direttamente l’inizio e la fine delle ondate di calore.

I ricercatori hanno utilizzato otto indicatori meteorologici disponibili quotidianamente, con un ritardo di 14 giorni, per creare previsioni a due settimane di distanza. L’utilizzo di modelli di previsione conformi ha permesso di quantificare l’incertezza delle previsioni con proprietà di validità comprovate. I risultati ottenuti per le temperature diurne e notturne sono promettenti, offrendo misurazioni affidabili dell’incertezza. Questo approccio offre importanti benefici per le politiche e le pratiche future, fornendo strumenti avanzati per la gestione del rischio legato alle ondate di calore nella capitale francese.

Lo studio dimostra come l’apprendimento statistico quantile possa essere uno strumento prezioso per la previsione del clima, in particolare per eventi estremi come le ondate di calore, consentendo una migliore preparazione e risposta.


Paper: ArXiv.org

Come il Meccanismo di adeguamento del carbonio alle frontiere sta dinamizzando il mercato europeo del carbonio e la trasformazione industriale

Il Meccanismo di adeguamento del carbonio alle frontiere (CBAM) e il mercato europeo del carbonio

Il mercato globale del carbonio è frammentato e caratterizzato da una limitata trasparenza dei prezzi e da prove empiriche, creando sfide per gli investitori e i responsabili politici nell’identificare le opportunità di gestione del carbonio. L’Unione Europea è tra le diverse regioni che hanno implementato la fissazione dei prezzi delle emissioni attraverso un sistema di scambio di quote di emissioni (EU ETS).

Sebbene l’EU ETS abbia contribuito alla riduzione delle emissioni, ha anche sollevato preoccupazioni relative alla competitività internazionale e alla rilocalizzazione delle emissioni di carbonio, in particolare data la forte integrazione delle industrie dell’UE nelle catene del valore globali. Per affrontare queste sfide, la Commissione Europea ha proposto il Meccanismo di adeguamento del carbonio alle frontiere (CBAM) nel 2021.

Il CBAM è progettato per operare insieme all’EU ETS applicando un prezzo del carbonio a determinate merci importate, allineando così i costi del carbonio tra produttori nazionali ed esteri. Sostituirà gradualmente le attuali misure di mitigazione della rilocalizzazione delle emissioni di carbonio, inclusa l’assegnazione di quote gratuite nell’ambito dell’EU ETS. L’ambito iniziale del CBAM comprende energia elettrica, cemento, fertilizzanti, alluminio, ferro e acciaio. Con l’intensificarsi delle politiche climatiche nell’ambito dell’Accordo di Parigi, ci si aspetta che meccanismi simili al CBAM svolgano un ruolo sempre più importante nella gestione dei rischi commerciali legati al carbonio e nel sostegno alla transizione verso emissioni nette zero.


Paper: ArXiv.org

I modelli linguistici di grandi dimensioni possono convincere efficacemente le persone a credere alle cospirazioni

I modelli linguistici di grandi dimensioni e la persuasione occulta

Un recente studio pubblicato su arXiv (arXiv:2601.05050v2) esplora la capacità dei modelli linguistici di grandi dimensioni (LLM) di influenzare le credenze delle persone, con particolare attenzione alle teorie del complotto. La ricerca, condotta su un campione di 2.724 americani, ha utilizzato GPT-4o, un modello di intelligenza artificiale, per discutere di teorie del complotto con i partecipanti. L’esperimento è stato progettato per valutare se i LLM potessero essere altrettanto efficaci nel promuovere falsità quanto nel confutarle.

I risultati hanno rivelato che una versione ‘jailbroken’ di GPT-4o, senza restrizioni, era altrettanto efficace nell’aumentare la credenza nelle teorie del complotto quanto nel diminuirla. Sorprendentemente, il modello che supportava le teorie del complotto (‘bunking’) è stato valutato più positivamente e ha aumentato la fiducia nell’IA più del modello che cercava di smascherarle (‘debunking’). Anche la versione standard di GPT-4o ha mostrato effetti simili, suggerendo che le protezioni implementate da OpenAI avevano un impatto limitato nel prevenire la diffusione di credenze cospiratorie.

Tuttavia, lo studio ha evidenziato anche alcune soluzioni. Una conversazione correttiva è riuscita a invertire le credenze indotte dalle teorie del complotto, e istruire GPT-4o a utilizzare solo informazioni accurate ha ridotto significativamente la sua capacità di aumentare la credenza nelle cospirazioni. Questi risultati dimostrano che, sebbene i LLM posseggano un notevole potere di persuasione, esistono potenziali strategie per mitigare il rischio di diffusione di informazioni false.


Paper: ArXiv.org

Utilizzo di immagini satellitari per mappare i mercati rurali e monitorare la loro attività ad alta frequenza

Mappare i mercati rurali con immagini satellitari: una nuova prospettiva economica

In molte aree rurali dei paesi a basso e medio reddito, gli incontri settimanali di compratori e venditori rappresentano la manifestazione più tangibile dell’economia di mercato. La conoscenza di questi mercati e della loro attività nel tempo potrebbe fornire preziose informazioni in contesti altrimenti caratterizzati da scarsità di dati, aiutando ricercatori e politici a comprendere meglio le economie rurali povere. Tuttavia, questi mercati sono per natura informali e ampiamente diffusi in regioni spesso remote. Di conseguenza, i dati su questa istituzione fondamentale sono scarsi e incoerenti.

Questo studio sviluppa e applica un metodo innovativo per colmare questa lacuna, sfruttando la firma temporale e visiva unica dell’attività di mercato nelle immagini satellitari. Utilizzando dati secondari provenienti da Kenya, Malawi e Mozambico, gli autori confermano di poter rilevare i mercati con elevata sensibilità e specificità. Successivamente, derivano una mappa di 1.776 mercati in Etiopia e ne monitorano l’attività con una frequenza fino a settimanale tra il 2017 e il 2024. L’attività di mercato misurata mostra modelli stagionali che seguono i calendari agricoli locali e risponde a shock meteorologici e conflitti. Questo approccio è applicabile ovunque i satelliti possano acquisire regolarmente immagini dei mercati rurali periodici e non richiede dati sul campo.

Una volta mappati i mercati, questo metodo può essere completamente automatizzato per produrre una misura settimanale delle condizioni economiche in aree dove tali dati sono generalmente non disponibili, offrendo una preziosa risorsa per la ricerca e le politiche di sviluppo.


Paper: ArXiv.org

Cedalion Tutorial: Un framework Python per l’analisi completa di fNIRS e DOT multimodali, dal laboratorio al mondo reale

Cedalion Tutorial: Un framework Python per l’analisi completa di fNIRS e DOT multimodali, dal laboratorio al mondo reale

La spettroscopia funzionale nel vicino infrarosso (fNIRS) e la tomografia ottica diffusa (DOT) stanno evolvendo rapidamente verso la neuroimmagine indossabile, multimodale e basata sui dati, supportata dall’intelligenza artificiale (IA) nel mondo reale. Tuttavia, gli strumenti analitici attuali sono frammentati tra diverse piattaforme, limitando la riproducibilità, l’interoperabilità e l’integrazione con i moderni flussi di lavoro di apprendimento automatico (ML). Cedalion è un framework open-source basato su Python progettato per unificare l’analisi avanzata, basata su modelli e basata sui dati, di dati fNIRS e DOT multimodali, all’interno di un ambiente riproducibile, estensibile e guidato dalla comunità. Cedalion integra modellazione diretta, co-registrazione fotogrammetrica degli optodi, elaborazione del segnale, analisi GLM, ricostruzione di immagini DOT e metodi basati su ML, all’interno di un’unica architettura standardizzata basata sull’ecosistema Python. Aderisce agli standard SNIRF e BIDS, supporta notebook Jupyter eseguibili sul cloud e fornisce flussi di lavoro containerizzati per pipeline di analisi scalabili e completamente riproducibili, che possono essere forniti insieme alle pubblicazioni di ricerca originali. Cedalion collega pipeline consolidate di neuroimmagine ottica con framework ML come scikit-learn e PyTorch, consentendo una fusione multimodale senza soluzione di continuità con EEG, MEG e dati fisiologici. Implementa algoritmi validati per la valutazione della qualità del segnale, la correzione del movimento, la modellazione GLM e la ricostruzione DOT, integrati da moduli per la simulazione, l’aumento dei dati e l’analisi della fisiologia multimodale. La documentazione automatizzata collega ogni metodo alla sua pubblicazione originale e i test di integrazione continua garantiscono la robustezza. Questo tutorial fornisce sette notebook completamente eseguibili che dimostrano le funzionalità principali. Cedalion offre una base aperta, trasparente e estensibile dalla comunità che supporta flussi di lavoro fNIRS/DOT riproducibili, scalabili, pronti per il cloud e per ML, per la neuroimmagine in laboratorio e nel mondo reale.


Paper: ArXiv.org

Valutazione delle previsioni sulle malattie infettive in una situazione di costo-perdita

Nuovo approccio per valutare le previsioni epidemiologiche

Un nuovo studio, pubblicato su arXiv (arXiv:2601.05921v1), propone un metodo innovativo per valutare l’utilità delle previsioni epidemiologiche per i decisori. L’articolo sottolinea l’importanza di una valutazione accurata delle previsioni, considerando i potenziali costi e perdite associate alle decisioni basate su di esse. Il framework decisionale adattato assegna un ‘Value Score’ (VS) a ciascun modello, confrontando la spesa prevista del decisore basata sulla previsione del modello con la spesa derivante dall’azione basata sulle probabilità storiche degli eventi. Il VS dipende dal rapporto costo-perdita, con un VS positivo che indica un valore aggiunto per il decisore, mentre un VS negativo suggerisce che le probabilità storiche sono più performanti delle previsioni del modello.

Lo studio applica questo framework a un sottoinsieme di previsioni sull’intensità di picco dell’influenza provenienti dalla FluSight Challenge. I risultati mostrano che la maggior parte dei modelli presenta un VS positivo per alcuni intervalli di rapporti costo-perdita. Tuttavia, non esiste una chiara correlazione tra il VS e la classificazione originale delle previsioni del modello ottenuta utilizzando un punteggio log modificato. Questo è in parte dovuto al fatto che il VS è sensibile alla sovra- o sotto-previsione, cosa che non si verifica con le metriche di valutazione standard. Gli autori ritengono che questo tipo di valutazione sensibile al contesto porterà a un migliore utilizzo delle previsioni epidemiologiche da parte dei decisori.

Questo approccio offre un modo più realistico per valutare le previsioni, considerando i costi reali delle decisioni basate su di esse. Si prevede che questo metodo possa migliorare l’efficacia delle politiche sanitarie e la gestione delle epidemie.


Paper: ArXiv.org

Modello Fondamentale Single-Cell con Conoscenza Open World e Pre-training Cell-Language Cross-Modal Robusto

Nuovo modello per la comprensione delle cellule: OKR-CELL

La ricerca nel campo della biologia cellulare sta facendo passi da gigante, soprattutto grazie ai progressi nella single-cell multi-omics, in particolare nell’RNA-seq. Questi progressi offrono nuove prospettive sull’eterogeneità cellulare e sulla regolazione genica. I modelli linguistici pre-addestrati (PLM) hanno mostrato risultati promettenti, ma presentano delle limitazioni: l’integrazione insufficiente dei profili individuali e la difficoltà nel gestire il rumore nei dati multi-modali.

Per affrontare queste problematiche, è stato sviluppato OKR-CELL, un modello innovativo basato su un framework di pre-training Cell-Language cross-modal. Questo modello si avvale di due innovazioni chiave: l’utilizzo di Large Language Models (LLMs) con retrieval-augmented generation (RAG) per arricchire le descrizioni testuali delle cellule con conoscenze provenienti dal mondo aperto e l’introduzione di un obiettivo di Cross-modal Robust Alignment (CRA) che incorpora la valutazione dell’affidabilità dei campioni, l’apprendimento curriculare e il coupled momentum contrastive learning per rendere il modello più resistente ai dati rumorosi.

Dopo il pre-training su 32 milioni di coppie cella-testo, OKR-CELL ha ottenuto risultati all’avanguardia in sei diversi compiti di valutazione. Oltre ai benchmark standard come il clustering cellulare, l’annotazione del tipo di cellula, la correzione degli effetti batch e l’annotazione few-shot, il modello dimostra prestazioni superiori in applicazioni multi-modali più ampie, tra cui l’annotazione del tipo di cellula zero-shot e il recupero cella-testo bidirezionale. Questo approccio rappresenta un importante passo avanti nella comprensione del mondo cellulare.


Paper: ArXiv.org

E. coli è bravo nella chemiotassi?

E. coli: Maestro o Allievo nella Chemiotassi?

La chemiotassi, la capacità dei batteri di navigare verso nutrienti o allontanarsi da sostanze nocive, è da tempo considerata un’abilità straordinaria. Tuttavia, una recente ricerca, pubblicata su Nature Physics da Hudson Mattingly e colleghi (2026), solleva dubbi significativi su questa convinzione consolidata. Lo studio suggerisce che Escherichia coli, un batterio ampiamente studiato, utilizzi solo una piccola porzione delle informazioni sensoriali disponibili sulla sua superficie. Questo implica che la chemiotassi batterica, contrariamente a quanto si pensava, potrebbe non operare ai limiti fisici della sensibilità.

Il lavoro di Mattingly e colleghi sfida i modelli classici di chemiotassi, i quali presuppongono che i batteri sfruttino al massimo le informazioni sensoriali per una navigazione precisa. I ricercatori hanno analizzato come E. coli risponde ai gradienti chimici, scoprendo che il batterio sembra ignorare una parte consistente dei segnali ambientali. Questo comportamento, inaspettato, solleva importanti interrogativi sulla robustezza della chemiotassi batterica di fronte al rumore e alle fluttuazioni ambientali.

Le implicazioni di questa ricerca si estendono ben oltre la biologia batterica. Le scoperte di Mattingly e colleghi offrono nuovi spunti di riflessione per fisici, biologi e persino gli studiosi di mitologia greca. La capacità dei batteri di adattarsi e sopravvivere in ambienti complessi, sfruttando in modo efficiente le risorse disponibili, resta un tema affascinante e ricco di potenziali applicazioni. Lo studio apre nuove strade per la comprensione dei meccanismi di base della percezione sensoriale e dell’adattamento biologico.


Paper: ArXiv.org