epica·today

L'utilizzo dei bot su X Twitter nella guerra dell'informazione: uno sguardo all'operazione russa dopo l'attentato a Mosca.

24 Marzo 2024

Una analisi dell'operazione di Coordinated Inauthentic Behaviour

Marzo 2024 si rivela un momento cardine nella cronaca della guerra informatica, marcando un'intensificazione delle operazioni di disinformazione pianificate dalla Russia contro l'Ucraina, come fatto notare da Matteo Pugliese su X (Twitter). La peculiarità di questa offensiva risiede nell'uso dei bot, ovvero account artificiali privi di genuinità, lanciati nella mischia della disinformazione in modo coordinato, esemplificando il fenomeno noto come Coordinated Inauthentic Behaviour (CIB).

La tattica adottata da questa operazione si distingue per la sua insidiosità: i bot, uniformi nel messaggio, hanno puntato il dito contro l'Ucraina riguardo il recente attentato a Mosca, seguendo una narrazione palesemente artificiosa. Questi account, camuffati da entusiasti delle criptovalute, hanno contribuito a postare i messaggi attraverso una rete di profili anonimi, creati nello stesso periodo e privi di alcun follower, propagando la disinformazione ad un livello senza precedenti.

Recenti analisi, gettano luce sull'ampiezza e la sofisticatezza di queste campagne, mostrando come operino in lingue diverse, tra cui italiano e tedesco, mantenendo intatta la loro struttura funzionale. Tale approccio multilinguistico dimostra l'intento di influenzare l'opinione pubblica su scala globale, adoperando la disinformazione come leva strategica.

I media digitali assumono un ruolo principale nell'eco di queste manovre. Nel caso dei bot in italiano, il sito web "Il Corrispondente" di Amedeo Avondet è stato utilizzato per conferire legittimità ai messaggi veicolati dai bot, mediante la diffusione di articoli che fungono da ancoraggio di credibilità. Questo sottolinea l'importanza vitale della verifica delle fonti nell'epoca dell'informazione digitale.

Questo episodio segna un punto di svolta nella gestione dell'informazione online, enfatizzando la necessità di un approccio critico e di una costante vigilanza nel consumo delle notizie. Solo attraverso l'analisi dettagliata di operazioni di questo tipo è possibile comprendere e neutralizzare efficacemente le strategie di disinformazione.

Disinformazione anche in Germania

Un esempio concreto di queste tattiche si è verificato recentemente in Germania, come riportato in un report del Ministero degli Esteri tedesco. Secondo il documento, non pubblicato ma ottenuto da Spiegel, oltre 50.000 account in lingua tedesca, non riconducibili a individui reali, sono stati identificati per aver diffuso narrazioni volte a minare la fiducia nei confronti del governo, delle istituzioni democratiche e dei giornalisti, alimentando il malcontento per il sostegno tedesco all'Ucraina. La campagna, mirata a incrinare la coesione sociale tedesca e ad influenzare futuri eventi elettorali, si manifesta attraverso una coordinazione sofisticata di bot che pubblicano contenuti in maniera simultanea e ritmata, creando l'illusione di un dibattito pubblico organico e genuino, pur essendo interamente orchestrata da remoto.

Le botfarm su Twitter rappresentano un fenomeno tecnologico e sociale di grande rilevanza, utilizzato sia per fini legittimi sia per manipolare l'opinione pubblica. In questo articolo, esploreremo come funzionano dal punto di vista tecnico, demistificando i meccanismi alla base di queste reti complesse.

Cos'è una Botfarm?

Una botfarm, o "fattoria di bot", è una rete di account automatizzati gestiti da software, invece che da esseri umani. Questi bot possono eseguire una vasta gamma di compiti su piattaforme social come Twitter, da attività innocue come pubblicare aggiornamenti meteo, fino a operazioni più insidiose come la diffusione di disinformazione o l'amplificazione artificiale di certi argomenti.

Come funzionano i bot su X Twitter?

La creazione e il funzionamento di una botfarm su Twitter inizia con la registrazione automatica di molti account, processo che può includere l'elusione dei sistemi di verifica come i CAPTCHA. Questi account vengono poi gestiti da software di automazione che li fa agire in maniera coordinata, eseguendo azioni come tweet, retweet, like e follow basati su algoritmi o trigger predefiniti. Per rendere i bot meno riconoscibili e simili agli utenti reali, vengono implementate strategie per imitare comportamenti umani, come variare i tempi tra le azioni e utilizzare contenuti generati in modo casuale. La gestione di questi bot avviene tramite un centro di controllo che permette di modificare strategie e azioni in tempo reale. Infine, per mantenere attiva la botfarm nonostante i tentativi di Twitter di identificare e bloccare i bot, vengono adottate tecniche per eludere queste difese, inclusi l'uso di proxy per mascherare l'origine del traffico e l'aggiornamento costante dei metodi di simulazione del comportamento umano.

arrow-right