Difesa antagonista

La nostra soluzione brevettata Adversarial Defense garantisce la robustezza dei modelli contro l'hacking e rileva i dati avvelenati, mantenendo il vostro AI sicuro

La difesa avversaria Modzy rileva e previene in modo proattivo gli attacchi avversari, fornendo elevate prestazioni e resilienza contro l'avvelenamento dei dati e il furto di modelli di minacce.

Per combattere gli attacchi avversari attivi e passivi, Modzy ha sviluppato metodi di Robust Training per modelli di apprendimento profondo che sono resistenti agli attacchi avversari. Aggiungete scalabilità alla soluzione e ora è possibile raggiungere livelli di fiducia costanti e ridurre in modo dimostrabile il rischio nell'implementazione di AI.

La fiducia nelle decisioni del modello AI dipende da qualcosa di più della logica contenuta all'interno dell'algoritmo. Flussi di dati cattivi o avvelenati, introdotti intenzionalmente dagli avversari o per caso, possono portare a risultati sbagliati, anche disastrosi. Gli aggressori possono ingannare i modelli e indurli a fare una previsione sbagliata. Mentre è facile attaccare le reti neurali, è difficile difendersi dagli attacchi avversari. Questo rende i modelli di AI vulnerabili a molte tecniche di attacco diverse - manomissione fisica, hot-flips, avvelenamento e furto di modelli.

La difesa avversaria previene gli attacchi

Gli avvocati hackerano i vostri modelli AI per due motivi principali: creare disinformazione o degradare le prestazioni del modello.

Modzy Adversarial Defense mantiene il vostro AI robusto

Attacchi mirati

  • Gli attacchi mirati si concentrano sulla modifica di una specifica identificazione o classificazione - l'obiettivo è quello di interrompere la capacità di un modello di rilevare o classificare una particolare entità all'interno di un set di dati
  • Il risultato di un attacco mirato è un modello che identifica erroneamente l'entità di interesse. Questa classificazione errata può portare a ulteriori disinformazioni, poiché i risultati del modello vengono utilizzati per prendere decisioni

Per esempio:

  • Attacco: Un avversario inganna un drone aggiungendo distorsioni fisiche a specifici oggetti in un'area
  • Risultato: il classificatore di immagini del drone pensa che gli oggetti appartengano ad una specifica categoria predefinita dall'avversario

Attacchi non mirati

  • Gli attacchi non mirati vengono eseguiti contro un obiettivo più generale di manomissione della capacità di un modello di classificare un intero set di classi all'interno di un set di dati
  • Questi attacchi degradano le prestazioni del modello nel tempo

 

Per esempio:

  • Attacco: un avversario aggiunge perturbazioni fisiche a tutti gli oggetti in un'area scansionata da un drone
  • Risultato: il drone classifica erroneamente la maggior parte degli oggetti della scena

Modzy Approccio alla difesa avversaria

Ascolta il Dr. Arash Rahnama descrivere come rilevare e prevenire gli attacchi avversari utilizzando Modzy.

Dettagli sul programma Quick Start