I rischi per i sistemi di videosorveglianza e le tecnologie di riconoscimento biometrico.

Di Ottavio Linzalone

Gli attacchi deepfake rappresentano una minaccia crescente nel campo della sicurezza informatica, in particolare per i sistemi di videosorveglianza e le tecnologie di riconoscimento biometrico. Questi attacchi sfruttano l’intelligenza artificiale per creare contenuti video o audio falsificati che appaiono autentici, ingannando così sia gli esseri umani sia i sistemi automatizzati.

Cos’è un attacco deepfake?

Un attacco deepfake consiste nell’utilizzo di tecniche di intelligenza artificiale, come le Generative Adversarial Networks (GAN), per generare contenuti multimediali sintetici che imitano realisticamente persone reali.

Questi contenuti possono essere utilizzati per:

  • manipolare prove video: creando filmati falsi che mostrano eventi mai accaduti;
  • eludere sistemi di riconoscimento facciale:...
Questo è un contenuto riservato.
Per visualizzarlo, è necessario effettuare l\'accesso.
Se non hai un account e vuoi essere inserito nella nostra lista di attesa, avvia una conversazione con la chat nella nostra pagina Home.
Home