Estorsioni silenziose: IA e deepnude, le nuove violenze contro i minori
Il dossier dell’Associazione Meter segnala una crescita preoccupante di casi in cui minori vengono denudati artificialmente con l’IA
di Salvo Di Noto
Questa potrebbe essere la storia di Gaia, 12 anni. Una mattina apre WhatsApp e scopre che nel gruppo classe circolano immagini di lei completamente nuda. Non sono vere. Gaia non si è mai spogliata davanti a nessuno. Eppure il suo volto è il suo, il corpo le assomiglia, i compagni ridono, qualcuno salva le foto. Qualcuno scrive: “Se denunci, le mandiamo a tutti”.
Oppure potrebbe essere la storia di Paolo, 13 anni. Si sente solo, passa molto tempo online. Su Telegram inizia a parlare con un chatbot che sembra capirlo, rassicurarlo. Poi la conversazione cambia tono. Richieste, immagini, minacce, dato che dietro non c’è un algoritmo ma un adulto che lo sta adescando.
Non sono casi isolati. È una nuova forma di violenza, un’estorsione silenziosa, resa possibile dall’intelligenza artificiale e dalla diffusione di deepnude, immagini sessualmente esplicite generate artificialmente a partire da foto reali, spesso innocue, di bambini e adolescenti.
Oggi non serve più uno scatto intimo, basta una foto presa da un social, da un profilo pubblico e in pochi secondi il corpo di un minore viene ricostruito, spogliato, sessualizzato.
Il dossier dell’Associazione Meter segnala una crescita preoccupante di casi in cui minori vengono denudati artificialmente con l’IA. Materiali che circolano in spazi chiusi, gruppi, canali, chat criptate, e diventano strumenti di minaccia, perché: “Se parli, le diffondiamo”.
Ancora oggi molti minori non denunciano, per paura, vergogna, isolamento, perché alla base del problema legato alla tecnologia vi è un problema culturale. Ci indigniamo quando le vittime sono influencer o personaggi pubblici. Ma quante volte sentiamo parlare di bambine e bambini vittime di deepnude?
Eppure i numeri parlano chiaro: dal dossier di Meter emerge che solo nel primo semestre del 2025 2.967 minori sono stati vittime di deepnude. Senza clamore. Senza titoli. Senza giustizia, perché non hanno un volto noto.
L’intelligenza artificiale sta cambiando la visione del corpo: non più persone, ma oggetti digitali manipolabili, riproducibili all’infinito. Il confine tra reale e artificiale si annulla, ma l’abuso resta e si moltiplica.
Siamo di fronte a una nuova forma di pedopornografia: non serve il contatto fisico per esercitare violenza, il corpo del minore viene progettato, costruito e distribuito digitalmente. E paradossalmente, mentre crescono i contenuti artificiali, aumenta la domanda di materiale pedopornografico reale, perché il pedofilo cerca materiale sempre più nuovo, sempre più “vero”.
Sarebbe ora di avere interventi rapidi, responsabilità reali delle piattaforme e una consapevolezza chiara, perché ogni deepnude che coinvolge un minore è un abuso.
E fin quando ci indigniamo solo quando il caso coinvolge un personaggio pubblico, continuiamo a lasciare soli i bambini, vittime due volte: prima dell’abuso digitale, poi del silenzio connivente.