YouTube ha recentemente introdotto nuove linee guida per la gestione dei contenuti generati attraverso l’intelligenza artificiale, concentrandosi in particolare sui deepfake. Queste norme si suddividono in due categorie principali: una più rigida, mirata a proteggere i partner dell’industria musicale della piattaforma, e un’altra meno restrittiva, applicabile al resto degli utenti.
Secondo le nuove direttive, i creatori sono tenuti a etichettare chiaramente i contenuti realistici generati dall’IA che caricano, indicando esplicitamente che sono stati creati attraverso l’intelligenza artificiale. Questa pratica diventa particolarmente importante in contesti delicati come elezioni o situazioni di conflitto attuali. Le etichette saranno visibili sia nelle descrizioni dei video che direttamente sui video stessi, specialmente se si tratta di materiale sensibile.
Nonostante la definizione di “realistico” da parte di YouTube non sia stata ancora specificata, è stato comunicato che saranno fornite indicazioni più dettagliate, comprensive di esempi, quando la politica entrerà in vigore l’anno prossimo.
Le conseguenze per chi non rispetta correttamente queste nuove linee guida potrebbero variare, con possibili azioni come la rimozione del video e la demonetizzazione. Tuttavia, rimane incerto come YouTube possa identificare con certezza i video generati dall’IA non etichettati, considerando che gli attuali strumenti di rilevamento sono ancora poco affidabili.
La situazione si complica ulteriormente per i video che utilizzano deepfake per simulare persone reali, come nel caso della loro voce o del loro volto. YouTube prevede di consentire richieste di rimozione attraverso un modulo esistente, ma valuterà vari fattori, tra cui se il contenuto è una parodia o satira e se l’individuo coinvolto è un personaggio pubblico.
Inoltre, per i contenuti musicali generati dall’IA che imitano la voce cantata o parlata di un artista, non saranno ammesse eccezioni per parodia e satira. I canali che producono coperture AI di artisti vivi o deceduti potrebbero vedere i loro contenuti rimossi.
Nel corso dei prossimi mesi, YouTube prevede di implementare ulteriori misure per contrastare gli abusi perpetrati attraverso l’intelligenza artificiale, spesso utilizzata per la diffusione virale di video deepfake.
Per coloro che si sentono vittime di contenuti indesiderati generati dall’IA, sarà possibile tutelare la propria immagine avviando un reclamo per violazione della privacy. La piattaforma terrà conto di vari fattori nella valutazione delle richieste, inclusi elementi come parodia, satira, l’identificabilità dell’individuo e il suo status pubblico.
Inoltre, YouTube ha evidenziato l’importanza di informare gli spettatori sulla provenienza dei contenuti realizzati dall’IA, specialmente quando la narrazione può essere fuorviante. I creator saranno tenuti a indicare durante il caricamento se il video è stato alterato o creato dall’intelligenza artificiale, soprattutto quando il risultato finale è realistico.
Queste misure sono state introdotte in risposta alla crescente diffusione di video deepfake che coinvolgono personaggi noti, come attori, cantanti e personaggi dello spettacolo. Molti di questi video sono diventati virali, suscitando preoccupazioni riguardo alla disinformazione e all’uso improprio delle immagini e delle voci delle persone coinvolte.
Inoltre, YouTube ha annunciato che accoglierà reclami da parte di coloro che desiderano vedere rimossi video in cui la propria immagine e/o voce sono state manipolate dall’IA in modo non autorizzato. I reclami saranno valutati in base a vari criteri, con la possibilità che i contenuti giudicati come parodia o satira possano essere accettati.
Il fenomeno dei deepfake è diventato sempre più accessibile grazie all’uso crescente dell’intelligenza artificiale, anche su dispositivi come gli smartphone. Pertanto, YouTube si prepara a implementare etichette specifiche per i video manipolati dall’IA nei prossimi mesi, al fine di contrastare la disinformazione e garantire maggiore consapevolezza tra gli spettatori.