Cosa resta non detto? Rilevamento e correzione di omissioni fuorvianti nelle anteprime di notizie multimodali
Un nuovo studio esplora l’impatto delle anteprime di notizie sui social media, composte da immagini e titoli, rivelando come queste possano indurre interpretazioni fuorvianti. Anche se i contenuti sono fattualmente corretti, l’omissione selettiva di informazioni cruciali può portare i lettori a conclusioni divergenti rispetto all’articolo completo. Questa forma sottile di disinformazione, più difficile da individuare rispetto alla disinformazione esplicita, è stata oggetto di scarsa attenzione.
Per colmare questa lacuna, i ricercatori hanno sviluppato un sistema a più fasi che distingue la comprensione basata sull’anteprima da quella basata sul contesto. Questo ha permesso la creazione del benchmark MM-Misleading. L’analisi di modelli di linguaggio visivo-linguistici (LVLM) open-source ha rivelato significative lacune nel rilevamento delle omissioni fuorvianti. È stato quindi proposto OMGuard, che integra l’Interpretation-Aware Fine-Tuning per migliorare il rilevamento e la Rationale-Guided Misleading Content Correction per guidare la riscrittura dei titoli e ridurre le impressioni fuorvianti.
Gli esperimenti mostrano che OMGuard migliora l’accuratezza di un modello da 8B, e offre una correzione end-to-end più efficace. L’analisi rivela che la disinformazione deriva spesso da cambiamenti narrativi locali, evidenziando la necessità di interventi visivi, soprattutto in scenari guidati dalle immagini dove la sola correzione testuale è insufficiente.
Paper: ArXiv.org