L'editoriale

sabato 1 Novembre, 2025

L’uso dell’AI a fini sessisti

di

C'è un nuovo volto della violenza di genere. È la nuova pornografia non consensuale, automatizzata e iperrealistica. È la violenza 4.0, in cui l’AI viene impiegata per uno scopo vecchissimo: riaffermare il potere maschile sul corpo femminile

Il progresso spesso è una tenera illusione, perché l’elastico che ci tiene ancorati a vecchie stereotipie appena ci allontaniamo troppo ci riporta dritti lì: alle nostre responsabilità, mai risolte.

Un esempio: c’è un nuovo volto della violenza di genere. Non si mostra più soltanto nell’antologia di commenti sessisti picchiettati con soddisfazione appena appare una foto femminile sui social, né si limita alla di per sé preoccupante fenomenologia intergenerazionale dei ricatti con immagini intime.
Oggi prende forma nei pixel, nei forum e nei siti che usano l’intelligenza artificiale per spogliare le donne, per creare — e poi diffondere — immagini di nudo che non sono mai esistite, ma che appaiono reali.
Attrici, politiche, giornaliste, influencer: ma anche ragazze comuni, la cui unica «colpa» è quella di aver condiviso una foto pubblica (con i vestiti addosso, s’intende).

È la nuova pornografia non consensuale, automatizzata e iperrealistica. È la violenza 4.0, in cui l’AI viene impiegata per uno scopo vecchissimo: riaffermare il potere maschile sul corpo femminile. Perché non è solo voyeurismo, e non è solo un gioco tecnologico. È una forma di controllo. Sul corpo e sulle proprie insicurezze.

L’ultima scoperta diventata un caso nazionale riguarda un forum (di cui non menzioneremo il nome, per evitare ulteriore visibilità paradossale) che con 7,5 milioni di iscritti era affaccendato nella pubblicazione di scatti fasulli di donne nude.
Personaggi pubblici, ma non solo.
Che d’un tratto diventano loro malgrado oggetto dell’onanismo digitale di uomini immiseriti dall’incapacità di costruire un desiderio reale.
Dopo la chiusura di forum come Phica e di gruppi Facebook come «Mia moglie», in cui venivano pubblicate le foto di donne inconsapevoli, altre piattaforme continuano dunque a consentire la diffusione di immagini esplicite, intime, di revenge porn o generate da AI, in modo illegittimo.

La deriva più oscena — non nel senso letterale, perché della propria sessualità ciascuno dispone come crede — è l’hackeraggio di immagini privatissime.
Video domestici rubati e venduti nel web scippando i nastri di videosorveglianza: un caso – denunciato dalla società trevigiana di cybersicurezza Var Group – che ha coinvolto anche tre ragazze di Trento.
Le giovani inconsapevoli si trovavano in camera da letto e i video sono stati distribuiti a pagamento, a tariffe variabili da 20 a 575 dollari, in base alla popolarità e al numero di visualizzazioni.
Perché il corpo come merce si vende.

La tecnologia, che avrebbe potuto emanciparci, diventa allora lo strumento per ribadire un messaggio antico:
la donna resta oggetto, una superficie su cui proiettare desideri e fantasie, un corpo disponibile anche quando non lo è.

Questa nuova frontiera del sessismo digitale racconta un paradosso contemporaneo.
Mentre si discute di parità, inclusione e diritti, la rete — quella stessa rete che ci connette e ci informa — ospita migliaia di spazi dove l’AI è usata per “nude generator”, “deepfake porn” e altri eufemismi che nascondono un’ossessione.
Non c’è nulla di innovativo, anzi: è un ritorno al passato travestito da futuro.

Ogni foto nuda generata da un algoritmo su una donna reale è una violazione della sua identità, un furto della sua immagine e della sua libertà.
Ma è anche un segnale culturale più profondo: dietro ogni clic, dietro ogni condivisione, c’è una società che ancora fatica a vedere le donne come soggetti pieni, e non come corpi da possedere.

«I rapporti di potere – scriveva Foucault in Microfisica del potere – sono sempre fenomeni complessi, che appunto non sottostanno alla forma dialettica hegeliana. Il potere si è addentrato nel corpo, si trova esposto al corpo stesso, il corpo è la posta in gioco di una lotta tra i figli ed i genitori, tra il bambino e le istanze di controllo.»
Erano gli anni Settanta e da qui Judith Butler ha scritto molto altro, dimostrando al mondo che la conoscenza per decostruirci è a nostra disposizione.

E allora? Allora l’AI non è il problema. Il problema è come la usiamo, e per chi la usiamo.
Finché resterà uno strumento al servizio di fantasie patriarcali e non di una cultura egualitaria, continuerà a riprodurre le stesse disuguaglianze del mondo analogico.

Serve una risposta politica, giuridica e culturale.
Le leggi devono proteggere meglio le vittime di questi abusi — perché di abusi si tratta — e le piattaforme devono essere chiamate a una responsabilità piena, non solo morale.
Ma serve anche, e forse soprattutto, un cambio di sguardo collettivo: capire che ogni immagine falsa di una donna nuda è una ferita reale.

Il futuro non si misura dalla potenza degli algoritmi, ma dalla capacità di usarli per costruire libertà, non per spogliarla.