Il paradosso del deepfake perfetto: quando l’IA è troppo brava per essere contestata
Ufficio Marketing e Comunicazione Tutela Legale Spa
Nel solco dell’evoluzione tecnologica, il diritto della prova sta affrontando una metamorfosi ontologica.
Il confine tra l’autenticità documentale e l’artefatto sintetico si è fatto labile, scardinando il principio tradizionale secondo cui il “falso” è una corruzione della realtà rilevabile tramite l’analisi delle sue incongruenze materiali.
L’avvento dell’Intelligenza Artificiale Generativa segna il passaggio dalla manipolazione del dato alla sua sintesi ex novo, introducendo contenuti privi di un archetipo di confronto.
Il paradosso della contestazione
Il sistema delle tutele processuali si è storicamente fondato sulla capacità della perizia, sia essa grafologica, fonometrica o informatica, di rintracciare l’anomalia.
Tuttavia, i modelli generativi attuali producono contenuti così coerenti sotto il profilo linguistico, temporale e dei metadati da rendere inoperanti i tradizionali strumenti di individuazione del falso.
Si configura così il cosiddetto “paradosso del deepfake”, come evidenziato dall’articolo di NT+ Diritto Il Sole 24 Ore.
Nel caso specifico, nell’ambito di una controversia di lavoro, è stata prodotta in giudizio una prova digitale (messaggi e contenuti audio) ritenuta formalmente autentica e coerente sotto ogni profilo tecnico, ma sospettata di essere il risultato di una generazione artificiale.
In questo scenario, la verità processuale rischia di divergere dalla verità storica, non per un errore del giudicante, ma per l’impossibilità tecnica di esperire un efficace scrutinio di autenticità.
Un recente reportage internazionale evidenzia come i tribunali non siano ancora pronti ad affrontare questa nuova classe di prove: foto, video e audio generati artificialmente diventano difficili da autenticare con strumenti tradizionali, e la scarsità di specialisti forensi aggrava ulteriormente il problema.
Il quadro normativo: l’art. 2712 c.c. e l’onere della prova
Nel nostro ordinamento, l’efficacia delle riproduzioni informatiche è disciplinata dall’art. 2712 c.c., secondo cui le riproduzioni formano piena prova se la parte contro cui sono prodotte non ne disconosce la conformità ai fatti.
L’articolo prevede la nozione di disconoscimento specifico, che richiede di indicare in cosa consista la mancanza di conformità. La giurisprudenza di legittimità afferma da tempo che un disconoscimento generico non è sufficiente: occorrono elementi concreti sulle anomalie documentali, non la mera affermazione di possibili falsità.
Con l’IA generativa, il diritto della prova affronta tre criticità principali:
- Assenza di un originale: se un documento nasce già sintetico, manca un termine di paragone per verificarne l’integrità.
- Specificità della contestazione: non è sufficiente asserire che un documento sia “falso”; la contestazione deve essere puntuale e supportata da elementi tecnici probanti.
- Rischio di attendibilità presunta: in assenza di anomalie evidenti, il giudice è portato a considerare il documento genuino, con effetti determinanti sulla sentenza.
Le conseguenze nei contenziosi
La crescente centralità della prova digitale rende queste dinamiche particolarmente rilevanti in procedimenti in cui la ricostruzione dei fatti dipende da comunicazioni elettroniche come nel caso citato di una controversia di lavoro.
Il settore giuslavoristico è infatti un terreno particolarmente esposto a questi rischi. La ricostruzione dei fatti – ad esempio in un licenziamento per giusta causa o in una contestazione disciplinare – poggia sempre più spesso su comunicazioni elettroniche come chat WhatsApp o registrazioni vocali.
In questo contesto, il rischio non è tanto la falsità dei fatti, quanto l’impossibilità tecnica di dimostrare l’artificialità di una prova “sintetica” ma credibile prodotta dalla controparte.
Una nuova consapevolezza giuridica
L’IA non introduce semplicemente nuovi strumenti tecnologici nel processo, ma modifica le condizioni stesse in cui il diritto opera: non è più questione di vero o falso nel senso tradizionale, bensì di verificabilità giuridica.
La dottrina e la giurisprudenza concordano sul fatto che il sistema giuridico dovrà evolvere verso:
- Standard di autenticazione più sofisticati, basati su tecniche innovative;
- Criteri procedurali specifici, che integrino competenze giuridiche e tecniche per affrontare la complessità dell’evidenza digitale;
- Normative nazionali ed europee che riconoscano esplicitamente il rischio delle prove sintetiche e definiscano parametri di affidabilità scientifica.
Sul fronte italiano, la Legge n. 132/2025 ha introdotto un nuovo reato nel codice penale (art. 612-quater c.p.), che punisce la diffusione senza consenso di immagini, video o voci falsificate con IA, idonee a indurre in errore circa la loro genuinità, segnando un primo passo della risposta legislativa ai deepfake.
L’era dell’IA generativa segna una frattura storica nel diritto della prova: l’esperienza del processo e la capacità di stabilire la verità processuale rischiano di divergere dalla verità storica, non per errore giudiziario, ma per limiti tecnici di verificabilità.
Serve una nuova cultura della prova digitale, che integri competenze tecniche avanzate nel processo civile e penale, ridisegni l’onere della prova alla luce delle tecnologie IA e anticipi i rischi prima che si traducano in una crisi generalizzata di fiducia nel sistema giuridico.
In un mondo digitale ambiguo, la certezza risiede nella disponibilità dei mezzi economici per difendersi. Una copertura di tutela legale nasce per sollevare il cliente dal peso finanziario di avvocati e periti e diventa oggi una componente essenziale di ogni piano assicurativo.