Muri Invisibili: ISAC che preserva la privacy potenziato da Superfici Intelligenti Riconfigurabili

Muri Invisibili: ISAC che preserva la privacy potenziato da Superfici Intelligenti Riconfigurabili

La crescente attenzione verso la comunicazione e il rilevamento integrati (ISAC) è alimentata dalle informazioni ambientali e relative all’obiettivo intrinsecamente trasportate nei segnali wireless, come le informazioni sullo stato del canale (CSI). Tuttavia, ciò solleva anche urgenti preoccupazioni sulla fuga di privacy attraverso l’intercettazione. Per superare queste limitazioni, viene proposto PrivISAC, una soluzione plug-and-play e a basso costo che sfrutta RIS per proteggere la privacy degli utenti preservando le prestazioni ISAC.

Al centro di PrivISAC c’è una strategia innovativa in cui a ogni riga RIS vengono assegnati due distinti vettori di beamforming, dai quali costruiamo deliberatamente un insieme limitato di configurazioni RIS. Durante il funzionamento, viene attivata casualmente una configurazione a ogni intervallo di tempo per introdurre perturbazioni aggiuntive, mascherando efficacemente le informazioni di rilevamento sensibili da intercettatori non autorizzati. Per garantire congiuntamente la protezione della privacy e le prestazioni della comunicazione, progettiamo i due vettori in modo tale che le loro risposte rimangano quasi identiche nella direzione della comunicazione, preservando così una trasmissione stabile e ad alta velocità, mostrando al contempo marcate differenze nella direzione del rilevamento, che introduce perturbazioni sufficienti a sventare gli intercettatori. Inoltre, per consentire il rilevamento legittimo in tali configurazioni randomizzate, introduciamo un metodo di mascheramento e demascheramento nel dominio del tempo che consente al ricevitore autorizzato di associare ogni campione CSI alla sua configurazione sottostante ed eliminare le discrepanze indotte dalla configurazione, recuperando così CSI valido. I risultati sperimentali mostrano che PrivISAC offre una solida protezione della privacy preservando al contempo un ISAC legittimo di alta qualità.


Paper: ArXiv.org

SAFE: Apprendimento federato sicuro e accurato per interfacce cervello-computer privacy-preserving

SAFE: Apprendimento federato sicuro e accurato per interfacce cervello-computer privacy-preserving

Le interfacce cervello-computer (BCI) basate sull’elettroencefalogramma (EEG) sono ampiamente adottate grazie alla loro efficienza e portabilità. Tuttavia, i loro algoritmi di decodifica affrontano ancora molteplici sfide, tra cui generalizzazione inadeguata, vulnerabilità agli attacchi e perdita di privacy. Questo articolo propone SAFE (Secure and Accurate FEderated learning), un approccio basato sull’apprendimento federato che protegge la privacy degli utenti mantenendo i dati locali durante l’addestramento del modello. SAFE impiega una normalizzazione specifica per batch locali per mitigare gli spostamenti della distribuzione delle caratteristiche tra soggetti e quindi migliora la generalizzazione del modello. Migliora inoltre la robustezza agli attacchi introducendo perturbazioni sia nello spazio di input che nello spazio dei parametri attraverso l’addestramento avversario federato e la perturbazione dei pesi avversari. Gli esperimenti su cinque set di dati EEG da paradigmi BCI di immaginazione motoria (MI) e potenziale correlato all’evento (ERP) hanno dimostrato che SAFE ha costantemente superato 14 approcci all’avanguardia sia in termini di accuratezza di decodifica che di robustezza agli attacchi, garantendo al contempo la protezione della privacy. In particolare, ha persino superato gli approcci di addestramento centralizzato che non considerano affatto la protezione della privacy. A nostra conoscenza, SAFE è il primo algoritmo a raggiungere simultaneamente elevata accuratezza di decodifica, forte robustezza agli attacchi e protezione affidabile della privacy senza utilizzare alcun dato di calibrazione dal soggetto di destinazione, rendendolo altamente desiderabile per le BCI del mondo reale.


Paper: ArXiv.org

Pre-addestramento continuo su dati sintetici crittografati per LLM che preservano la privacy

Nuova ricerca esplora il pre-addestramento continuo per LLM che preservano la privacy

Un nuovo studio pubblicato su arXiv (2601.05635v1) esplora un approccio innovativo per il pre-addestramento continuo di Large Language Models (LLM) su dati sensibili, mantenendo al contempo la privacy. La ricerca, condotta da un team di esperti, affronta la sfida di addestrare modelli linguistici di grandi dimensioni su piccoli corpora specifici del dominio, proteggendo al contempo le informazioni personali identificabili (PII).

L’approccio proposto si basa su un framework basato su entità che sintetizza dati di addestramento crittografati. Questo metodo prevede la costruzione di un grafo di entità ponderato per guidare la sintesi dei dati e l’applicazione di una crittografia deterministica alle entità PII. Ciò consente agli LLM di codificare nuove conoscenze attraverso il pre-addestramento continuo, garantendo al contempo l’accesso autorizzato ai dati sensibili tramite chiavi di decrittazione.

I risultati preliminari dimostrano che i modelli pre-addestrati superano i modelli base e garantiscono la sicurezza delle PII. I ricercatori hanno anche scoperto che l’aumento del numero di entità e l’utilizzo della sintesi basata su grafi migliorano le prestazioni del modello. Inoltre, i modelli crittografati mantengono le capacità di istruzione-following con contesti lunghi recuperati. Questo studio rappresenta un passo importante verso la creazione di LLM che rispettano la privacy, con implicazioni significative per la gestione dei dati sensibili in vari settori.

Il codice sorgente è disponibile su GitHub (https://github.com/DataArcTech/SoE).


Paper: ArXiv.org