Deepfake porno: come parlare ai tuoi figli di immagini false esplicite

Se il giorno non è ancora arrivato, sta arrivando: devi parlare con tuo figlio dei deepfake espliciti.

Il problema poteva sembrare astratto finché le false immagini pornografiche di Taylor Swift, generate dall’intelligenza artificiale, è diventato virale sulla piattaforma di social media X/Twitter. Ora il problema semplicemente non può essere ignorato, affermano gli esperti online sulla sicurezza dei bambini.

“Quando ciò accade a (Swift), penso che bambini e genitori inizino a rendersi conto che nessuno ne è immune”, afferma Laura Ordoñez, redattore esecutivo e responsabile dei media digitali e della famiglia presso Common Sense Media.

Che tu stia spiegando il concetto di deepfake e abuso basato su immagini di intelligenza artificiale, parlando del dolore che tali immagini causano alle vittime o aiutando tuo figlio a sviluppare capacità di pensiero critico per prendere decisioni etiche sui deepfake, c’è molto di cui i genitori possono e dovrebbero parlare nelle conversazioni in corso sull’argomento.

Prima di iniziare, ecco cosa devi sapere:

1. Non è necessario essere esperti di deepfake per parlarne.

Adam Dodge, fondatore di Il genitore esperto di tecnologiaafferma che i genitori che sentono di dover comprendere a fondo i deepfake prima di una conversazione con i propri figli non devono preoccuparsi di sembrare, o diventare, esperti.

Invece, tutto ciò che serve è una comprensione di base del concetto che i software e gli algoritmi basati sull’intelligenza artificiale rendono incredibilmente facile creare deepfake realistici, espliciti o pornografici, e che tale tecnologia è di facile accesso online. In effetti, i bambini fin dagli studenti delle scuole elementari possono imbattersi in app o software con questa funzionalità e utilizzarli per creare deepfake con poche sfide o barriere tecniche.

“Quello che dico ai genitori è: ‘Guardate, dovete capire quanto presto e quanto spesso i bambini vengono esposti a questa tecnologia, che ciò accade prima di quanto pensiate, e apprezzare quanto sia pericolosa.'”

Dodge afferma che i genitori devono essere preparati ad affrontare la possibilità che i loro figli vengano presi di mira dalla tecnologia; che visualizzeranno contenuti inappropriati; o che parteciperanno alla creazione o alla condivisione di immagini false ed esplicite.

2. Trasformala in una conversazione, non in una conferenza.

Se sei sufficientemente allarmato da queste possibilità, cerca di evitare di precipitarti in una discussione affrettata sui deepfake. Ordoñez consiglia invece di affrontare l’argomento in modo aperto e non giudicante, chiedendo a tuo figlio cosa sa o ha sentito parlare dei deepfake.

Aggiunge che è importante pensare all’abuso basato sulle immagini dell’intelligenza artificiale come una forma di manipolazione online che esiste sullo stesso spettro della disinformazione o della disinformazione. Con questo quadro, riflettere sui deepfake diventa un esercizio di pensiero critico.

Ordoñez dice che i genitori possono aiutare i loro figli apprendere i segni che le immagini sono state manipolate. Sebbene la rapida evoluzione dell’intelligenza artificiale significhi che alcuni di questi segnali rivelatori non vengono più visualizzati, Ordoñez afferma che è comunque utile sottolineare che qualsiasi deepfake (non solo quello esplicito) potrebbe essere identificabile attraverso lo scolorimento del viso, l’illuminazione che sembra spenta e la sfocatura dove il collo e i capelli si incontrano.

Anche i genitori possono imparare insieme ai propri figli, dice Ordoñez. Ciò potrebbe comportare la lettura e la discussione insieme di contenuti falsi non espliciti generati dall’intelligenza artificiale la canzone Cuore in mano, rilasciato nel maggio 2023, quello ha affermato di utilizzare versioni AI delle voci di Drake e The Weeknd. Sebbene questa storia abbia una posta in gioco relativamente bassa per i bambini, può stimolare una conversazione significativa su come ci si potrebbe sentire se la tua voce fosse usata senza il tuo consenso.

I genitori potrebbero fai un quiz on-line con il loro bambino che chiede al partecipante di identificare correttamente quale volto è reale e quale è generato dall’intelligenza artificiale, un altro modo a basso rischio di confrontare insieme la facilità con cui le immagini generate dall’intelligenza artificiale possono ingannare lo spettatore.

Lo scopo di queste attività è insegnare a tuo figlio come avviare un dialogo continuo e sviluppare le capacità di pensiero critico che saranno sicuramente messe alla prova quando si imbatteranno in deepfake espliciti e nella tecnologia che li crea.

3. Metti la curiosità di tuo figlio sui deepfake nel giusto contesto.

Sebbene i deepfake espliciti equivalgano ad abuso digitale e violenza contro la vittima, tuo figlio potrebbe non comprenderlo appieno. Invece, potrebbero essere curiosi riguardo alla tecnologia e persino desiderosi di provarla.

Dodge sostiene che, sebbene ciò sia comprensibile, i genitori abitualmente pongono limiti ragionevoli alla curiosità dei propri figli. L’alcol, ad esempio, è tenuto fuori dalla loro portata. I film con classificazione R sono vietati fino a quando non raggiungono una certa età. Non sono autorizzati a guidare senza un’adeguata istruzione ed esperienza.

I genitori dovrebbero pensare alla tecnologia deepfake in modo simile, afferma Dodge: “Non vuoi punire i bambini perché sono curiosi, ma se hanno accesso non filtrato a Internet e all’intelligenza artificiale, quella curiosità li condurrà su strade pericolose.”

4. Aiuta tuo figlio a esplorare le conseguenze dei deepfake.

I bambini potrebbero vedere i deepfake non espliciti come una forma di intrattenimento. I preadolescenti e gli adolescenti potrebbero anche credere erroneamente all’argomentazione avanzata da alcuni: che i deepfake pornografici non sono dannosi perché non sono reali.

Tuttavia, potrebbero essere persuasi a considerare i deepfake espliciti come un abuso basato sull’immagine dell’intelligenza artificiale quando la discussione incorpora concetti come consenso, empatia, gentilezza e bullismo. Dodge afferma che invocare queste idee mentre si parla di deepfake può attirare l’attenzione di un bambino sulla vittima.

Se, ad esempio, un adolescente sa chiedere il permesso prima di prendere un oggetto fisico a un amico o a un compagno di classe, lo stesso vale per gli oggetti digitali, come foto e video postati sui social. Usare quei file digitali per creare un deepfake nudo di qualcun altro non è uno scherzo o un esperimento innocuo, ma una sorta di furto che può portare a profonda sofferenza per la vittima.

Allo stesso modo, Dodge afferma che proprio come un giovane non aggredirebbe qualcuno per strada all’improvviso, non è in linea con i suoi valori aggredire qualcuno virtualmente.

“Queste vittime non sono fabbricate o false”, afferma Dodge. “Queste sono persone vere.”

Le donne, in particolaresono stato presi di mira dalla tecnologia che crea deepfake espliciti.

In generale, Ordoñez afferma che i genitori possono parlare di cosa significa essere un buon cittadino digitale, aiutando i propri figli a riflettere se sia giusto ingannare potenzialmente le persone, le conseguenze dei deepfake e come vedere o essere vittima delle immagini potrebbe far sentire gli altri.

5. Modella il comportamento che vuoi vedere.

Ordoñez osserva che gli adulti, compresi i genitori, non sono immuni dal partecipare con entusiasmo all’ultima tendenza digitale senza pensare alle implicazioni. Prendi, ad esempio, quanto velocemente gli adulti hanno iniziato a diventare fantastici Autoritratti AI utilizzando l’app Lensa alla fine del 2022. Al di là dell’hype, c’erano preoccupazioni significative sulla privacy, sui diritti degli utenti e sul potenziale dell’app di rubare o sostituire gli artisti.

Momenti come questi sono ideali per i genitori per riflettere sulle proprie pratiche digitali e modellare il comportamento che vorrebbero che i loro figli adottassero, afferma Ordoñez. Quando i genitori si fermano a riflettere in modo critico sulle loro scelte online e condividono l’intuizione di quell’esperienza con i loro figli, dimostrano come possono adottare lo stesso approccio.

6. Usa il controllo genitori, ma non scommettere su di esso.

Quando i genitori vengono a conoscenza dei pericoli posti dai deepfake, Ordoñez afferma che spesso desiderano una “soluzione rapida” per tenere i propri figli lontani dalle app e dai software che utilizzano la tecnologia.

È importante utilizzare il controllo genitori che limita l’accesso a determinati download e siti, afferma Dodge. Tuttavia, tali controlli non sono infallibili. I bambini possono e troveranno un modo per aggirare queste restrizioni, anche se non si rendono conto di quello che stanno facendo.

Inoltre, Dodge afferma che un bambino potrebbe vedere deepfake o incontrare la tecnologia a casa di un amico o sul dispositivo mobile di qualcun altro. Ecco perché è ancora fondamentale discutere degli abusi basati sulle immagini dell’intelligenza artificiale, “anche se imponiamo potenti restrizioni tramite il controllo parentale o se togliamo i dispositivi durante la notte”, afferma Dodge.

7. Dare potere invece di spaventare.

La prospettiva che tuo figlio ferisca i suoi coetanei con abusi basati sull’intelligenza artificiale, o che ne diventi lui stesso vittima, è spaventosa. Ma Ordoñez mette in guardia dall’usare tattiche intimidatorie come un modo per scoraggiare un bambino o un adolescente dall’interagire con la tecnologia e i contenuti.

Quando si parla con le ragazze, in particolare, le cui foto e video sui social media potrebbero essere utilizzati per generare deepfake espliciti, Ordoñez suggerisce di parlare loro di come le fa sentire pubblicare immagini di se stesse e dei potenziali rischi. Queste conversazioni non dovrebbero attribuire alcuna colpa alle ragazze che vogliono partecipare ai social media. Tuttavia, parlare dei rischi può aiutare le ragazze a riflettere sulle proprie impostazioni sulla privacy.

Sebbene non vi sia alcuna garanzia che una loro foto o un video non vengano utilizzati contro di loro prima o poi, possono sentirsi rafforzati facendo scelte intenzionali su ciò che condividono.

E tutti gli adolescenti e i ragazzi possono trarre beneficio dalla consapevolezza che l’incontro con una tecnologia capace di creare deepfake espliciti, in un periodo di sviluppo in cui sono altamente vulnerabili a prendere decisioni avventate, può portare a scelte che danneggiano gravemente gli altri, dice Ordoñez.

Incoraggiare i giovani a imparare a fare un passo indietro e chiedersi come si sentono prima di fare qualcosa come creare un deepfake può fare un’enorme differenza.

“Quando fai un passo indietro, (i nostri figli) hanno questa consapevolezza, ha solo bisogno di essere potenziato, supportato e guidato nella giusta direzione”, dice Ordoñez.

Se il giorno non è ancora arrivato, sta arrivando: devi parlare con tuo figlio dei deepfake espliciti. Il problema poteva sembrare astratto finché le false immagini pornografiche di Taylor Swift, generate dall’intelligenza artificiale, è diventato virale sulla piattaforma di social media X/Twitter. Ora il problema semplicemente non può essere ignorato, affermano gli esperti online sulla…

Leave a Reply

Your email address will not be published. Required fields are marked *