Fattibilità della discriminazione della massa primaria evento per evento utilizzando osservabili radio e apprendimento automatico supervisionato

Nuova ricerca esplora la discriminazione di massa con osservabili radio

Un nuovo studio, pubblicato su arXiv (2601.05969v1), indaga la fattibilità della discriminazione della massa primaria evento per evento utilizzando esclusivamente osservabili radio. La ricerca si concentra sull’analisi della possibilità di distinguere tra diversi tipi di particelle primarie (come protoni e nuclei atomici) che colpiscono l’atmosfera terrestre, basandosi unicamente sulle emissioni radio generate dalle cascate di raggi cosmici.

Nonostante l’analisi non richieda la ricostruzione esplicita del massimo dello sciame ($X_{max}$), la capacità di discriminazione deriva dalla sensibilità delle osservabili radio allo sviluppo longitudinale dello sciame atmosferico esteso (EAS). Questo approccio radio-based potrebbe essere particolarmente rilevante per esperimenti che si basano solo sulla radio, come GRAND. Per valutare la fattibilità, sono stati stabiliti limiti superiori conservativi sull’accuratezza della discriminazione, utilizzando un algoritmo di apprendimento automatico supervisionato, ovvero una random forest (RF). I dati utilizzati comprendono i campi elettrici di picco e le pendenze spettrali, che offrono un potere di discriminazione complementare, oltre alle distanze delle antenne dall’asse dello sciame.

L’RF è stata addestrata e testata utilizzando grandi set di eventi generati dalla simulazione di emissione radio veloce e dalla risposta semplificata del rivelatore implementata nel framework RDSim. I risultati mostrano accuratezze di discriminazione tra l’81% e il 96% sull’intervallo zenitale studiato, anche dopo aver normalizzato ogni sciame per la sua energia elettromagnetica. Questi risultati dimostrano che la discriminazione della massa primaria evento per evento, usando osservabili radio, è fattibile in linea di principio.


Paper: ArXiv.org

Imparare dagli Errori: Campioni di Ragionamento Negativo Migliorano la Generalizzazione Out-of-Domain

Nuovo Studio Rivela Come i Campioni Negativi Possono Migliorare l’Apprendimento dei Modelli Linguistici

Un recente studio pubblicato su arXiv (2601.04992v2) esplora l’impatto dell’incorporazione di esempi negativi nell’addestramento di modelli linguistici di grandi dimensioni (LLM) per il ragionamento. La ricerca si concentra sull’approccio di fine-tuning supervisionato (SFT) utilizzando dimostrazioni di chain-of-thought (CoT). Contrariamente alla pratica comune di utilizzare solo traiettorie con risposte corrette, lo studio dimostra che l’inclusione di traiettorie negative, ovvero quelle con risposte finali errate, porta a significativi miglioramenti nella generalizzazione out-of-domain (OOD).

I ricercatori hanno scoperto che le traiettorie negative contengono spesso ragionamenti intermedi validi, nonostante l’errore finale. L’analisi approfondita ha rivelato 22 modelli ricorrenti nelle catene negative, che svolgono un ruolo duplice: moderano la discesa della perdita per mitigare l’overfitting durante l’addestramento e aumentano l’entropia della politica durante l’inferenza, facilitando l’esplorazione. Sulla base di queste osservazioni, è stato proposto un nuovo metodo, Gain-based LOss Weighting (GLOW), che adatta la ponderazione della perdita in base ai progressi tra le epoche.

I risultati empirici mostrano che GLOW utilizza efficacemente le traiettorie non filtrate, ottenendo un aumento del 5,51% nella generalizzazione OOD rispetto all’SFT basato solo su esempi positivi sul modello Qwen2.5-7B. Inoltre, GLOW ha incrementato il punteggio MMLU dal 72,82% al 76,47% quando utilizzato come inizializzazione RL, evidenziando il potenziale di questa tecnica per migliorare le prestazioni dei LLM in diversi contesti.


Paper: ArXiv.org

iTeach: Insegnamento Interattivo per la Percezione Robotica Utilizzando la Realtà Mista

iTeach: Migliorare la Percezione Robotica in Tempo Reale

I robot che operano in ambienti reali spesso incontrano oggetti e scenari che superano i modelli di percezione pre-addestrati. L’adattamento di questi modelli richiede tipicamente la raccolta lenta di dati offline, l’etichettatura e il riaddestramento. Per affrontare questa sfida, è stato sviluppato iTeach, un sistema human-in-the-loop che consente ai robot di migliorare continuamente la percezione durante l’esplorazione di nuovi ambienti.

Il sistema si basa sull’interazione umana: un utente osserva le previsioni del robot, corregge gli errori in tempo reale e questi dati guidano la messa a punto iterativa. Un visore per la realtà mista fornisce l’interfaccia, sovrapponendo le previsioni alla vista dell’utente e consentendo annotazioni leggere tramite sguardo e voce. Invece di una noiosa etichettatura fotogramma per fotogramma, l’utente guida il robot verso le scene desiderate e registra brevi video durante l’interazione con gli oggetti. L’utente etichetta solo il fotogramma finale, e un modello di segmentazione video propaga le etichette attraverso la sequenza, convertendo pochi secondi di input in una supervisione densa.

Il modello perfezionato viene implementato immediatamente, chiudendo il ciclo tra il feedback umano e l’apprendimento del robot. Dimostrazioni pratiche hanno mostrato miglioramenti costanti su modelli di riferimento pre-addestrati, portando a un maggiore successo nella presa di oggetti. iTeach offre un approccio pratico verso sistemi di percezione che generalizzano in modo robusto in diverse condizioni del mondo reale.


Paper: ArXiv.org

Intelligenza Artificiale Spiegabile: Imparare dagli Studenti

Intelligenza Artificiale Spiegabile: Imparare dagli Studenti

L’intelligenza artificiale (IA) ha superato gli umani in numerosi compiti scientifici e ingegneristici, ma le sue rappresentazioni interne rimangono spesso opache. In questa prospettiva, sosteniamo che l’intelligenza artificiale spiegabile (XAI), combinata con il ragionamento causale, consente di “imparare dagli studenti”.

Concentrandosi sulla scoperta, l’ottimizzazione e la certificazione, dimostriamo come la combinazione di modelli di base e metodi di spiegazione consenta l’estrazione di meccanismi causali, guidi la progettazione e il controllo robusti e supporti la fiducia e la responsabilità in applicazioni ad alto rischio. L’XAI offre un approccio innovativo per svelare il funzionamento interno delle IA, rendendo i loro processi decisionali comprensibili e interpretabili. Questo non solo aumenta la trasparenza, ma apre anche nuove strade per la collaborazione uomo-IA.

Esploriamo le sfide legate all’accuratezza, alla generalizzazione e all’usabilità delle spiegazioni, proponendo l’XAI come un quadro unificante per la collaborazione uomo-IA nella scienza e nell’ingegneria. L’obiettivo è quello di trasformare le “scatole nere” dell’IA in strumenti potenti e trasparenti, capaci di guidare la scoperta scientifica, ottimizzare i processi e garantire la sicurezza e l’affidabilità nelle applicazioni critiche.


Paper: ArXiv.org