Il nuovo programma parte in Australia. Le potenziali vittime devono condividere i loro contenuti espliciti con la piattaforma che li identificherà e li userà per eliminare copie diffuse online
·UN’IMPRONTA DIGITALE
In questo modo, esattamente come i colossi della Silicon Valley già fanno da tempo per la pedopornografia, a ciascun contenuto potrà essere attribuito un “hash”, insomma un pezzo di codice, un’impronta digitale che ne consenta l’individuazione online – e la rimozione definitiva – qualora l’ex partner lo pubblicasse da qualche parte. Il tutto utilizzando gli stessi meccanismi di intelligenza artificiale già sfruttati per il riconoscimento facciale nelle immagini o in altri servizi offerti da Menlo Park.
·I RISCHI
I problemi sono però parecchi. Uno su tutti. Occorre cioè che la (potenziale) vittima sia in possesso del file originale. Il che non è sempre scontato: una foto intima potrebbe essere stata scattata con lo smartphone dell’ex partner e addio possibilità di recupero. La mossa, che andrà in fase di test in Australia, s’inserisce in una serie di iniziative contro l’odioso atteggiamento del revenge porn come un simile esperimento già lanciato ad aprile ma su scala ridotta e la chiusura di account e pagine particolarmente dedite alla pratica. C’è poi il rischio che con minimali cambiamenti o fotoritocchi le immagini possano essere comunque caricate altrove in modo indisturbato e che la strategia, una volta ingannati gli algoritmi del social blu, non serva a nulla.
Il salto è però sensibile e prevede la partecipazione degli utenti: dateci i vostri contenuti scottanti, sembradire Facebook che li chiama “immagini intime non consensuali”, in modo che possiamo catalogarli e usarli come campione di riferimento per individuare ciò che dovesse saltare fuori online. Tutto questo non prima di aver compilato un questionario dell’autorità locale.