La denuncia di Meter: i pedofili usano l'IA per spogliare i bambini
Ascolta la versione audio dell'articolo
I pedofili si servono di programmi che sfruttano l’intelligenza artificiale per manipolare immagini di bambini e rappresentarli senza vestiti. L’altro pericolo: i chatbot per adescare i minori. Un dossier dell’associazione Meter denuncia il nuovo fenomeno.

L’intelligenza artificiale (IA) può essere usata per fini buoni, ma anche cattivi. E in questo secondo caso rientra appieno l’uso che ne fanno i pedofili, che sfruttano programmi di IA per adescare i bambini e anche per produrre foto e video pedopornografici virtuali, modificando immagini reali innocenti. Il tutto con un grado di realismo che rende difficile distinguere l’immagine vera da quella falsa, anche detta deepfake (come la relativa tecnica).
È quanto denuncia Meter, l’associazione a tutela dei bambini fondata da don Fortunato Di Noto, la quale lunedì 23 giugno ha pubblicato il suo primo dossier sull’argomento, intitolato “Intelligenza artificiale. Conoscere per prevenire, dalla pedopornografia ai deepnude”: termine, quest’ultimo, che rientra nella categoria generale del deepfake e specificamente indica le manipolazioni fatte con l’IA allo scopo di rimuovere da un’immagine gli indumenti di una persona.
Un sistema criminale, che ha una serie di ricadute tutt’altro che innocue. Tra queste, c’è il rischio di normalizzare gli abusi sui minori assuefacendo progressivamente le coscienze, perché quello che passa nel mondo virtuale non è indifferente per quello reale e, anzi, a volte serve a preparare il terreno. Inoltre, quando l’immagine pedopornografica falsa è ottenuta manipolando una comune foto di un bambino reale, magari scattata durante un momento di festa o di gioco, la vittima della manipolazione rischia di subire ricadute psicologiche devastanti.
Meter, in particolare, rileva quattro problematicità di questo nuovo fenomeno. La prima è collegata alla difficoltà nell’identificazione perché, come sintetizza un comunicato dell’associazione, «non riuscendo a riconoscere le vittime vere da quelle fake, si potrebbe rallentare di fatto il lavoro delle forze dell’ordine». A ciò è strettamente legato un secondo inquietante aspetto, ossia la possibile falsificazione di prove: «In questo caso si potrebbe generare materiale per incastrare qualcuno, calunniarlo, diffamarlo; oppure dei criminali potrebbero manipolare prove per scopi illegali (inducendo i soggetti ad azioni suicidarie). Non riuscire a distinguere tra vero e falso creerebbe problemi enormi nell’amministrazione della giustizia». In terzo luogo, si potrebbe assistere a un aumento della domanda di materiale pedopornografico, pensando che lo scambio di immagini virtuali non configuri un crimine. A proposito, ed è il quarto punto sottolineato da Meter, «le norme attuali potrebbero dare adito a vuoti normativi che permetterebbero ai criminali di sfuggire alla giustizia. Semplicemente, non sono adeguate a rispondere alla questione posta dalle immagini deepfake». L’associazione distingue tra la legge italiana, che punisce anche la pedopornografia “virtuale”, e le leggi di altri Paesi che potrebbero non essere adeguate. In ogni caso, l’evoluzione continua della tecnologia e il suo uso anche a fini non buoni impongono ai legislatori di stare al passo per punire efficacemente chi si rende responsabile di abusi e cercare di evitare questi ultimi.
Oltre che delle immagini false, i pedofili si servono anche di chatbot per adescare i minori e convincerli a scambiare immagini e video sessualmente espliciti, con tutti i problemi che ne derivano. Meter fa presente che i chatbot – programmi che simulano conversazioni umane, basandosi sull’IA – hanno raggiunto un alto livello di sofisticazione, per cui non è difficile che un bambino (e non solo) possa cadere nell’inganno. E anche in questo caso c’è un problema ulteriore: «I chatbot cambiano link e canali continuamente, crittografano e distribuiscono in tempi rapidi il materiale. Diventa così quasi impossibile, per le forze dell’ordine, individuarli».
L’adescamento passa attraverso app di messaggistica molto popolari. Secondo le indagini fatte da Meter, che nell’ultimo semestre (dicembre 2024 – maggio 2025) ha denunciato un totale di 633 gruppi, i pedofili si servono soprattutto di Signal (80%), che ha un sistema di crittografia che permette di eludere i controlli delle forze dell’ordine (e per questo l’associazione di don Di Noto ha presentato una denuncia contro l’app); poi di Telegram (10%), Viber (4%), WhatsApp (3%), Instagram (2%) e altre piattaforme (1%). Il monitoraggio svolto da Meter ha permesso di individuare 2.967 minori vittime di false immagini di nudo.
Nell’ambito del dossier, Meter ha anche realizzato un questionario in collaborazione con il Servizio Nazionale Tutela dei Minori della Conferenza Episcopale Italiana (CEI). Dalla rilevazione, che ha coinvolto 989 studenti delle scuole secondarie di secondo grado (fascia 14-18 anni), è emerso che una buona parte del campione conosce il fenomeno delle immagini manipolate anche a fini pornografici e, in particolare, l’87,4% ha risposto positivamente alla domanda “Ti è mai capitato di vedere o ricevere deepfake compromettenti di un conoscente?”. Nota stonata: nel questionario, alla voce “sesso degli intervistati”, insieme a maschio e femmina compare la categoria “altro”. Un cedimento alla menzogna, che speriamo non rientri anche nell’idea dei programmi di educazione all’affettività che il dossier – tirando le conclusioni del questionario – suggerisce di fare a scuola.
Ad ogni modo, tornando alle immagini pedopornografiche falsificate, la meritoria denuncia fatta da Meter è da prendere sul serio. In particolare, l’associazione chiede che «i governi spingano le software house a dotare i loro prodotti IA di adeguate misure che identifichino e blocchino la produzione di questo tipo di materiale, lo rimuovano e permettano al contempo la segnalazione di chi si è servito illecitamente di tali programmi e app».
Pedopornografia e IA: inquietante deriva da non sottovalutare
Nel consueto report annuale di Meter si registra un aumento del 220% rispetto al 2023 pari a 220 milioni di video pedopornografici. E si sta facendo largo una nuova inquietante deriva che sfrutta l'intelligenza artificiale. Che non deve essere sottovalutata perché costituisce un trampolino di lancio verso la pedofilia reale.