SAFE: Apprendimento federato sicuro e accurato per interfacce cervello-computer privacy-preserving
Le interfacce cervello-computer (BCI) basate sull’elettroencefalogramma (EEG) sono ampiamente adottate grazie alla loro efficienza e portabilità. Tuttavia, i loro algoritmi di decodifica affrontano ancora molteplici sfide, tra cui generalizzazione inadeguata, vulnerabilità agli attacchi e perdita di privacy. Questo articolo propone SAFE (Secure and Accurate FEderated learning), un approccio basato sull’apprendimento federato che protegge la privacy degli utenti mantenendo i dati locali durante l’addestramento del modello. SAFE impiega una normalizzazione specifica per batch locali per mitigare gli spostamenti della distribuzione delle caratteristiche tra soggetti e quindi migliora la generalizzazione del modello. Migliora inoltre la robustezza agli attacchi introducendo perturbazioni sia nello spazio di input che nello spazio dei parametri attraverso l’addestramento avversario federato e la perturbazione dei pesi avversari. Gli esperimenti su cinque set di dati EEG da paradigmi BCI di immaginazione motoria (MI) e potenziale correlato all’evento (ERP) hanno dimostrato che SAFE ha costantemente superato 14 approcci all’avanguardia sia in termini di accuratezza di decodifica che di robustezza agli attacchi, garantendo al contempo la protezione della privacy. In particolare, ha persino superato gli approcci di addestramento centralizzato che non considerano affatto la protezione della privacy. A nostra conoscenza, SAFE è il primo algoritmo a raggiungere simultaneamente elevata accuratezza di decodifica, forte robustezza agli attacchi e protezione affidabile della privacy senza utilizzare alcun dato di calibrazione dal soggetto di destinazione, rendendolo altamente desiderabile per le BCI del mondo reale.
Paper: ArXiv.org