Deepfake: due progetti europei rafforzano le tecnologie di rilevamento
Notizie

Deepfake: due progetti europei rafforzano le tecnologie di rilevamento

30 aprile 2026

Immagine di presentazione 1

Si sono conclusi due importanti progetti europei dedicati al rilevamento dei deepfake e al contrasto della loro diffusione: FF4ALL e FUN-Media. Si tratta di iniziative strategiche per affrontare il crescente impatto dei contenuti digitali manipolati—immagini, video e audio falsificati—sulla sicurezza dell’informazione.

L’Image and Sound Processing Lab (ISPL) del Dipartimento di Elettronica, Informazione e Bioingegneria del Politecnico di Milano, sostenuto anche da fondi PNRR, ha svolto un ruolo chiave in entrambi i progetti. Nell’ambito di FF4ALL, i ricercatori si sono concentrati sull’analisi dei fenomeni emergenti legati alla generazione di immagini e video sintetici, mentre in FUN-Media hanno approfondito il tema, sempre più critico, dei deepfake vocali.

I risultati ottenuti rappresentano un passo significativo verso lo sviluppo di tecnologie affidabili per la tutela dell’informazione digitale, il contrasto alla disinformazione e la protezione degli utenti in un ecosistema mediatico sempre più complesso e dinamico.

Nel progetto FF4ALL, il team dell’ISPL, coordinato dal Prof. Stefano Tubaro, ha studiato i meccanismi con cui immagini e video falsi vengono progettati e diffusi. In particolare, sono state analizzate tecniche avanzate capaci di trasformare contenuti reali in versioni sintetiche altamente realistiche, rendendo più difficile verificarne l’autenticità e occultando tracce fondamentali per l’analisi forense. Parallelamente, i ricercatori hanno sviluppato nuovi strumenti per individuare volti sintetici, combinando informazioni geometriche tridimensionali e caratteristiche strutturali del volto. Queste soluzioni migliorano la capacità dei modelli di riconoscere i falsi, mantenendo prestazioni elevate anche in presenza di operazioni di post-processing, come compressione o editing.

Nel progetto FUN-Media, coordinato dal Prof. Paolo Bestagini, l’attenzione si è spostata sulla rilevazione dei deepfake vocali, una delle minacce emergenti più insidiose nel panorama della sicurezza digitale. Per affrontare questa sfida, sono state sviluppate nuove architetture basate sui modelli “Mixture of Experts”, capaci di combinare diversi sistemi specializzati e migliorare le prestazioni anche di fronte a tecniche generative mai osservate durante la fase di addestramento. Questi approcci garantiscono maggiore flessibilità e adattabilità rispetto ai detector tradizionali, risultando particolarmente efficaci in contesti complessi e in continua evoluzione.

Un’ulteriore linea di ricerca ha esplorato l’impiego di detector forensi basati sull’individuazione di anomalie. In questo caso, i modelli vengono addestrati esclusivamente su segnali vocali autentici, apprendendone le caratteristiche distintive, per poi riconoscere i contenuti sintetici come deviazioni rispetto al comportamento atteso.