Dalle elezioni Usa alla Brexit, cresce l’utilizzo di profili finti e di sistemi automatici per spingere una campagna, o attaccare un avversario. E i ricercatori faticano a starci dietro
Quando si incontra online una pagina per segnalare le molestie ricevute da un bot – cioè da un programma automatico – viene da chiedersi se per caso non si sia finiti in un libro di Philip Dick. Invece, è l’università di Oxford a domandarlo. Con un progetto co-finanziato dall’Unione europea.
“Pensi che un bot, un programma automatico, ti stia disturbando? Usa questo modulo per segnalarlo”. Così ti chiede Political Bots, che è insieme un sito e un progetto di studio – con fondi dall’americana National Science Foundation, l’European Research Council e varie università – sulla propaganda computazionale. Ovvero qui si parla di algoritmi e programmi automatizzati usati in modo più o meno spregiudicato nella lotta politica, soprattutto sui social network. Di profili finti, gestiti da software, che simulano di essere persone reali con l’obiettivo di accrescere la visibilità di un prodotto, una campagna, un personaggio. O di contrastare un avversario. Un fenomeno che ha preso piede, per le caratteristiche tecniche della piattaforma, soprattutto su Twitter. E si è poi declinato anche nella lotta politica.
IL GIRO DI VITE DI TWITTER
Il social network guidato da Jack Dorsey sa di avere un problema. La questione dei bot annidati fra i cinguettii è vecchia di anni. La novità è che l’uso politico dei bot – rispetto ad altri utilizzi, ad esempio forme di marketing più tradizionale – sembra essersi acuito. Di sicuro, si è preso il centro della scena, suscitando l’interesse sia della politica che dei ricercatori.
Anche per questo a inizio febbraio Twitter ha annunciato alcuni cambiamenti, nell’ottica più generale di ridurre gli abusi e le molestie. Fra le misure adottate, oltre a rendere più difficile iscriversi di nuovo a chi è stato permanentemente sospeso, anche la decisione di rendere meno visibili le “risposte di bassa qualità e offensive”, facendole apparire più in basso di come dovrebbero nelle conversazioni. Una definizione che includerebbe anche risposte polemiche, inviate da account nuovi e senza follower, dirette a persone da cui non sono seguiti, dice la testata Fortune. In una parola: bot.
Il gruppo di ricercatori di Political Bots si è concentrato soprattutto sulle elezioni americane, che sono state un punto di svolta, almeno nella percezione del ruolo giocato dalla presunta manipolazione delle informazioni. In ogni caso, hanno fatto crescere l’attenzione verso il fenomeno. “Abbiamo riscontrato un’ampia attività di bot nelle presidenziali americane”, spiega a La Stampa Gillian Bolsover, ricercatrice dell’Oxford Internet Institute dell’università di Oxford. “Nei giorni immediatamente precedenti al voto, fino a un quarto di tweet con hashtag collegati alle elezioni erano inviati da profili altamente automatizzati. Si tratta di un fenomeno in crescita perché la tecnologia per realizzare questo genere di botnet (reti di bot, ndr) e la posizione dominante di un piccolo numero di piattaforme sociali sull’agenda mediatica è a sua volta una situazione abbastanza nuova nella società”. E in quel caso, hanno notato i ricercatori di Oxford in uno studio, con un divario nell’uso dei bot a favore di Trump.
I BOT NELLE ELEZIONI USA
I social bot hanno distorto la discussione online sulle elezioni Usa, hanno scritto anche due ricercatori della University of Southern California, Alessandro Bessi ed Emilio Ferrara. Il 15 per cento dei profili esaminati erano bot, dice il loro studio, che ha analizzato 20 milioni di tweet generati sul tema presidenziali in un mese. E questo 15 per cento era responsabile del 19 per cento della conversazione totale. Come li hanno individuati? “Abbiamo iniziato con una ricerca molto ampia, identificando milioni di utenti che hanno usato delle parole chiave relative alle elezioni, menzionato i candidati, ecc”, spiega a La Stampa Ferrara. “Da lì abbiamo identificato gli utenti più attivi, e quelli più influenti. Abbiamo infine usato i nostri algoritmi di intelligenza artificiale per isolare i bot”.
Le avvisaglie c’erano da mesi. Nell’aprile 2016 era emerso come una serie di bot avessero preso di mira il candidato alle primarie repubblicane Ted Cruz. Tweet tutti uguali inviati da account finti, con zero follower, invitavano le persone a inoltrare un reclamo contro il presunto abuso di chiamate automatiche fatte dalla campagna di Cruz (Sì, avete capito: dei bot che si “lamentavano”, per così dire, di altri programmi automatizzati…). Secondo un’analisi fatta da Patrick Ruffini, noto esperto di campagne digitali, erano circa 465 i profili finti di questa specifica campagna. E insieme avrebbero generato 411mila tweet pro-Trump in 30 giorni. Ma l’aspetto più interessante e che va tenuto a mente è un altro: non generavano solo tweet politici. Gli stessi account pubblicizzavano anche prodotti di bellezza o simili.
DALLA BREXIT AL MESSICO
Ad ogni modo, colpiti da quanto avvenuto negli Usa, il gruppo di ricerca di Political Bots ha iniziato a indagare anche in altri Paesi. “Abbiamo visto che una certa attività di bot era presente ad esempio in Gran Bretagna durante il voto sulla Brexit”, commenta Bolsover.
Amnesty International, dal suo canto, ha recentemente documentato un uso particolarmente violento di queste tattiche in Messico, dove schiere di profili finti e di troll veri prendono di mira giornalisti scomodi, bersagliandoli di insulti, minacce o diffamazioni.
IL DOCUMENTO DEL PARLAMENTO TEDESCO
Ma a preoccuparsi è anche la Germania. Il Parlamento tedesco ha infatti commissionato uno studio tecnico, uscito poche settimane fa, sulla rilevanza politica dei social bot e sulle possibili loro manipolazioni delle discussioni politiche e dei trend sui social network. E dice alcune cose interessanti. Ad esempio, che oggi i social bot sono usati soprattutto per distorcere artificialmente l’importanza di un argomento o la popolarità di una persona o di un prodotto sui social network. Oltre a ciò, sono usati per screditare ed offendere avversari. Ma possono produrre risultati politici solo in precise circostanze: in situazioni cioè dove ci sia un margine molto stretto in un dibattito o in una decisione, come un’elezione giocata al fotofinish.
In Germania il tema sui bot politici si è mescolato con quello delle fake news, ma i due discorsi andrebbero probabilmente tenuti separati. L’ideologizzazione del dibattito sulle “false notizie” rischia infatti di annacquare la concretezza delle botnet sociali come strumenti. Che possono essere usati da chiunque.
IL MERCATO DELLE INTERAZIONI
Per capire di cosa si sta parlando bisogna fare un passo indietro, al pre-esistente mercato di follower, fan, retweet, visualizzazioni che si è sviluppato da tempo sui social network. E che non necessariamente si regge solo su profili finti. “Ci sono persone che decidono di fornire il loro profilo social per fare attività di marketing, al servizio di agenzie che poi vendono un certo numero di interazioni su una piattaforma in un tempo prestabilito”, commenta a La Stampa Vincenzo Cosenza, social media strategist di Blogmeter. “Lo fanno anche attraverso community di persone reale o con un mix di account reali e non. Nel caso di una persona esistente basta dare le chiavi del proprio account a queste società”. Anche in Italia questo mercato non manca. Un’azienda vende ad esempio 100 retweet per 8 euro, ma il prezzo sale a 14 per retweet italiani. Una concorrente offre invece mille retweet per 49 euro. Una terza a listino ha 500 follower per 7 euro, pagamento via PayPal.
“In Italia sono molto richieste le visualizzazioni su YouTube, o anche i Mi Piace sulle pagine Facebook, mentre Twitter va un po’ meno. I retweet servono per far crescere un hashatag o un profilo”, commenta a La Stampa P.B., 28enne di Napoli che gestisce Social Monster, un’attività di rivendita di interazioni sui social (in regola, ci tiene a precisare, al contrario di molti altri che fanno tutto in nero). “È un’attività in crescita dal 2013 ad oggi. Gli ordini arrivano dal mondo musicale, da alcune aziende, professionisti, blogger, e sotto elezioni anche alcuni candidati, specie alle amministrative”. P. B dice di usare soprattutto circuiti di persone che si scambiano follower e simili attività, ma “nessuno – anche sui siti esteri – ti dice che ti sta vendendo dei bot”.
COME SI FA IL DOPING SU TWITTER
Sono tre i modi principali con cui si possono usare bot o più in generale dei sistemi automatizzati su Twitter a fini di marketing, politico o meno. Il primo si basa su bot elementari, che svolgono alcune funzioni, ad esempio rispondono in automatico con un tweet a una parola, un hashtag e via dicendo. Il secondo è orchestrato con sistemi che controllano reti di account reali, ceduti dai proprietari. “Ti arruoli volontariamente in una rete controllata da un altro e il tuo account condividerà in automatico una serie di contenuti”, spiega a La Stampa Matteo Flora, ad di The Fool, società che si occupa di reputation online. “È quanto avvenuto tempo fa con un’applicazione realizzata dalla Lega Nord”. E a dire il vero è una modalità usata anche dall’attivismo di base di vari colori, ad esempio in Italia è stato adottato in concomitanza di alcune manifestazioni da militanti di alcuni centri sociali.
La terza forma è invece la più sporca: “usi utenti finti attaccati a un sistema centralizzato, e gli fai fare tweet a intervalli regolari”, continua Flora, che aggiunge. “Quello su cui si vuole agire in questo modo è la percezione del consenso”.
IN ITALIA
“Anche nel caso di profili veri, o più spesso solo in parte veri, resta un utilizzo discutibile, si parla comunque di una botnet politica per alterare la visibilità di un tema”, commenta a La Stampa Renato Gabriele, del collettivo Gilda35, che negli ultimi anni ha seguito la questione. “In Italia esistono varie botnet politiche e non sono isolate, spesso si sommano o sovrappongono in una comunanza di interessi. A volte sono usate in grappoli distinti giorno per giorno in modo che non si notino sempre gli stessi account. Le abbiamo viste attive nello scorso referendum e a breve rilasceremo alcuni dati in proposito”.
COME SI SCOPRE UN BOT
Ma come sopravvive un bot su Twitter senza dare nell’occhio? E come lo si identifica? Il social network ha dei sistemi per cercare di stanarli. Ad esempio se si aprono dei profili nuovi, e li si agganciano subito a una app per farli ritwittare in automatico alcuni hashtag o un account, è facile che Twitter se ne accorga e faccia dei controlli sull’identità o addirittura li sospenda, come ha verificato La Stampa. Insomma, è un lavoro che richiede un certo grado di specializzazione. Un servizio straniero che vende bot è molto esplicito su questo, spiegando di usare tecniche di dissimulazione: ogni nostro account usa un proxy diverso, in modo da evitare di essere bannato, scrive.
“Ci sono vari metodi per non essere individuati. Sicuramente c’è un limite sul numero di tweet che può fare un certo profilo al giorno”, commenta Bolsover. “Comunque non tutti i bot o gli utilizzi semiautomatici della piattaforma ne violano i termini di servizio. Il problema c’è quando non è chiaro se un certo account è un bot o un umano”. Esistono da tempo sito come Bot or Not che provano a determinare se un dato profilo sia gestito da un umano o da un programma. Ma la verità è che può essere arduo capirlo anche per le persone. Anche perché esiste una ulteriore categoria che complica tutto. “Alcuni ricercatori li chiamano cyborg, parte umani e parte computer bot”, spiega Ferrara. “Sono molto più difficili da identificare perché le caratteristiche umane confondono i nostri sistemi di predizione”.
LA BOTNET DI GUERRE STELLARI
A gennaio ricercatori dell’University College di Londra hanno individuato, su Twitter, una botnet di ben 350mila profili. L’hanno chiamata la botnet di Star Wars, perché twitta contenuti e citazioni relative a Guerre Stellari. Ed è attiva addirittura dal 2013, ovvero è rimasta invisibile fino ad oggi. Anche se apparentemente innocua e dormiente, una botnet così grande potrebbe attivarsi dall’oggi al domani per mandare spam; link infetti; spingere temi, candidati, campagne; attaccare avversari.
Servono nuovi metodi per individuare le botnet, concludono i ricercatori dell’University College, perché quelli attuali sono insufficienti, mentre i bot evolvono velocemente. E non possiamo permetterci di sottovalutare il potenziale malevolo di un simile artefatto.
CAROLA FREDIANI, LA STAMPA