Ricerca pubblicata

CVPR 2020 Progettazione robusta di reti neurali profonde contro gli attacchi avversari basata sulla teoria di Lyapunov

Sinossi: Le reti neurali profonde (DNN) sono vulnerabili alle sottili perturbazioni antagoniste applicate all'input. Queste perturbazioni antagoniste, sebbene impercettibili, possono facilmente fuorviare le DNN. In questo lavoro, adottiamo un approccio teorico di controllo al problema della robustezza delle DNN. Trattiamo ogni singolo strato del DNN come un sistema non lineare e utilizziamo la teoria di Lyapunov per dimostrare la stabilità e la robustezza a livello locale. Procediamo poi a dimostrare la stabilità e la robustezza a livello globale per l'intero DNN. Sviluppiamo limiti empiricamente stretti sulla risposta dello strato di uscita, o di qualsiasi strato nascosto, alle perturbazioni antagoniste aggiunte all'input, o all'input degli strati nascosti. Recenti lavori hanno proposto la regolarizzazione della norma spettrale come soluzione per migliorare la robustezza contro gli attacchi avversari l2. I nostri risultati forniscono nuovi spunti su come la regolarizzazione della norma spettrale possa mitigare gli effetti antagonisti. Infine, valutiamo la potenza del nostro approccio su una varietà di set di dati e architetture di rete e contro alcuni dei ben noti attacchi antagonisti.

Leggi il documento

Rimani aggiornato
Condividi questa pagina
Condividi su facebook
Condividi su twitter
Quota su linkedin
Condividi su e-mail
Aggiornamenti recenti

Dettagli sul programma Quick Start