Conformità e Impatto Sociale sugli Agenti AI
Un nuovo studio pubblicato su arXiv (2601.05384v1) esplora la conformità negli agenti di intelligenza artificiale (AI), analizzando come questi modelli di linguaggio di grandi dimensioni (LLM) rispondono all’influenza sociale. La ricerca, ispirata agli esperimenti classici della psicologia sociale, ha simulato ambienti multi-agente per osservare il comportamento collettivo delle AI.
I risultati rivelano una tendenza sistematica alla conformità negli agenti AI, in linea con la Teoria dell’Impatto Sociale. Gli agenti mostrano sensibilità alla dimensione del gruppo, all’unanimità, alla difficoltà del compito e alle caratteristiche della fonte di influenza. Sorprendentemente, agenti AI che operano con prestazioni quasi perfette in isolamento diventano altamente suscettibili alla manipolazione attraverso l’influenza sociale.
Questa vulnerabilità persiste anche tra modelli di diverse dimensioni. Sebbene i modelli più grandi dimostrino una ridotta conformità su compiti semplici, a causa delle loro capacità avanzate, restano vulnerabili quando operano al limite delle loro competenze. La ricerca evidenzia quindi importanti vulnerabilità nella sicurezza del processo decisionale degli agenti AI, sollevando preoccupazioni riguardo alla possibilità di manipolazioni dannose, campagne di disinformazione e propagazione di bias nei sistemi multi-agente. Ciò sottolinea l’urgenza di implementare misure di salvaguardia nello sviluppo e nell’implementazione dell’AI collettiva.
Paper: ArXiv.org