Garantire la supply chain dell’IA: cosa possiamo imparare dai problemi di sicurezza segnalati dagli sviluppatori e dalle soluzioni dei progetti di IA?

Nuove sfide nella sicurezza dell’IA

L’ascesa rapida dei modelli e delle applicazioni di Intelligenza Artificiale (IA) ha creato un panorama di sicurezza sempre più complesso. Gli sviluppatori di progetti di IA si trovano a dover affrontare non solo i tradizionali problemi della supply chain del software, ma anche nuove minacce specifiche dell’IA. Tuttavia, si sa poco sui problemi di sicurezza più comuni e su come vengono risolti nella pratica. Questa lacuna ostacola lo sviluppo di misure di sicurezza efficaci per ogni componente della supply chain dell’IA.

Un’indagine empirica

Per colmare questa lacuna, è stata condotta un’indagine empirica sui problemi e le soluzioni segnalati dagli sviluppatori, basata su discussioni su Hugging Face e GitHub. Per identificare le discussioni relative alla sicurezza, è stata sviluppata una pipeline che combina la corrispondenza di parole chiave con un classificatore distilBERT ottimizzato, ottenendo le migliori prestazioni nel confronto tra diversi modelli di deep learning e large language models. Questa pipeline ha prodotto un set di dati di 312.868 discussioni sulla sicurezza.

Risultati e implicazioni

È stata condotta un’analisi tematica di 753 post campionati dal set di dati, rivelando una tassonomia dettagliata di 32 problemi di sicurezza e 24 soluzioni, suddivisi in quattro temi: Sistema e Software, Strumenti ed Ecosistema Esterni, Modello e Dati. Molti problemi di sicurezza derivano dalle complesse dipendenze e dalla natura ‘black box’ dei componenti di IA. Le sfide relative a Modelli e Dati spesso mancano di soluzioni concrete. Questi risultati offrono indicazioni basate sull’evidenza per sviluppatori e ricercatori per affrontare le minacce alla sicurezza nella supply chain dell’IA.


Paper: ArXiv.org