Il dossier è un affidavit (una dichiarazione giurata) presentato da un agente speciale dell'FBI in merito al sequestro di 32 domini internet. Questi domini sono stati utilizzati da attori sponsorizzati dal governo russo per condurre campagne di influenza e disinformazione a livello globale, in particolare negli Stati Uniti. Questo programma di disinformazione viene chiamato "Doppelganger."
L'affidavit cerca di ottenere un mandato di sequestro per questi domini internet, i quali sono stati usati per propagare informazioni false e favorire gli interessi russi, soprattutto cercando di screditare il sostegno internazionale all'Ucraina e influenzare le elezioni negli Stati Uniti e in altri paesi.

Doppelganger: come la Russia sta tentando di rovesciare le democrazie occidentali secondo un dossier dell'FBI

Metodi utilizzati dai russi

Cybersquatting: Questo è il metodo principale utilizzato dai malintenzionati. Registrano domini che sembrano appartenere a noti siti di notizie come "Washington Post" o "Fox News," ma con leggere differenze nell'indirizzo.
In questo modo, creano copie quasi identiche di questi siti, ma con articoli falsi che favoriscono la narrativa russa.
Propaganda Online: Oltre a creare questi siti falsi, i russi usano anche influencer e profili social falsi per diffondere link a questi articoli. Le persone che vedono questi contenuti spesso non si rendono conto che sono falsi e credono di visitare siti di notizie legittimi.
Uso di AI: In alcuni casi, la propaganda viene supportata da annunci sui social media e da contenuti creati con strumenti di intelligenza artificiale.
L'affidavit afferma che tutto questo avviene sotto il controllo diretto dell'Amministrazione Presidenziale Russa, e in particolare sotto la supervisione di Sergei Kiriyenko, uno dei principali funzionari del governo russo. Sono coinvolti anche vari enti come l'a Social Design Agency (SDA) e Structura National Technology, che aiutano nella creazione e distribuzione di questa propaganda.
L'FBI sostiene che questi domini siano coinvolti in attività di riciclaggio di denaro e violazione di marchi, poiché i siti falsi utilizzano marchi e loghi di testate giornalistiche senza autorizzazione. Inoltre, l'uso dei domini viola le leggi internazionali e americane, incluso l'International Emergency Economic Powers Act (IEEPA).

Questo documento rappresenta solo una parte del caso, ma spiega chiaramente come la Russia stia cercando di influenzare le opinioni pubbliche a livello globale, utilizzando internet e social media.

Siti web clonati e la strategia di distribuzione

Un esempio è dato dal dominio falso "washingtonpost[.]pm", una copia quasi identica del vero sito web del Washington Post. Questo sito clonato utilizza il logo ufficiale e la stessa struttura visiva, ma pubblica articoli falsi che sostengono le politiche russe, come dichiarazioni che incoraggiano la fine del sostegno degli Stati Uniti all'Ucraina.
Gli articoli sono scritti in modo da sembrare autentici e vengono attribuiti a giornalisti veri, il che rende ancora più difficile per i lettori capire che si tratta di un falso. Alcuni articoli specificamente menzionati includono titoli come “Il conflitto con l'Ucraina rafforza la Russia”, cercando di minare la fiducia nelle politiche statunitensi verso l’Ucraina.
Doppelganger utilizza profili falsi su varie piattaforme di social media, che fingono di essere cittadini americani o di altri paesi. Questi profili postano commenti su discussioni online e condividono link a questi articoli, cercando di convincere altri utenti che si tratti di notizie vere e legittime.
Viene sottolineato come varie entità russe, tra cui ANO Dialog, coordinino le loro attività per assicurare che il messaggio propagandistico sia diffuso in modo ampio e convincente. Queste organizzazioni creano sia domini cybersquattati (falsi) sia marchi mediatici unici per veicolare la propaganda russa, sempre cercando di mascherare l'origine del contenuto.

Direzione e supervisione di Sergei Kiriyenko

Sergei Kiriyenko, descritto come uno dei principali consiglieri di Vladimir Putin, è indicato come l'artefice principale della campagna di disinformazione. La supervisione di Kiriyenko è stata confermata attraverso note interne e documenti sequestrati, che indicano il suo coinvolgimento diretto in riunioni con i responsabili della campagna.
Kiriyenko ha partecipato a diverse riunioni con rappresentanti di organizzazioni coinvolte nella propaganda, come SDA e Structura. In questi incontri, discuteva delle strategie da adottare per influenzare l'opinione pubblica in vari paesi, in particolare negli Stati Uniti e in Germania.
In un incontro documentato nell'aprile 2022, Kiriyenko avrebbe dato istruzioni specifiche per usare due tecniche: “psicosi nucleare” e “esagerazione.” L'idea era di creare panico riguardo a una possibile guerra tra l'Occidente e la Russia e di esagerare le minacce per influenzare l'opinione pubblica.
Altri incontri documentano come gli attori della campagna Doppelganger avessero deciso di concentrare i loro sforzi in Germania, considerata particolarmente vulnerabile a tale propaganda. Si cercava di discreditare gli Stati Uniti, il Regno Unito e la NATO, incolpandoli per il deterioramento delle relazioni internazionali.
Una delle tattiche più efficaci utilizzate consiste nel mescolare fatti veri e falsi, confondendo il lettore e rendendo più difficile individuare la propaganda. Ad esempio, in una riunione, è stato suggerito di creare una falsa storia su un soldato americano che avrebbe violentato una donna tedesca, per alimentare il risentimento verso gli Stati Uniti in Germania.

I responsabili della campagna hanno anche discusso di creare portali web dedicati alla diffusione di notizie false riguardanti presunti crimini commessi da funzionari ucraini, con lo scopo di screditare il governo ucraino e alimentare sentimenti anti-ucraini in Europa.

Monitoraggio dei media e delle opinioni pubbliche

SDA tiene traccia di un vasto numero di fonti di informazione e influencer online per comprendere come si sta diffondendo la propaganda e quali risultati sta ottenendo. SDA ha creato delle dashboard che raccolgono dati in tempo reale e forniscono analisi sui trend dell'opinione pubblica. Questi dati permettono di adattare e migliorare le campagne di disinformazione in corso.
SDA ha pagato per servizi di traduzione professionali, traducendo articoli falsi e contenuti di propaganda in diverse lingue per diffondere il messaggio russo in tutto il mondo. Molti di questi articoli sono stati pubblicati sui siti cybersquattati (domini falsi) e diffusi attraverso social media.
SDA si riferisce ai siti cybersquattati come "media mirror outlets" (media specchio), ovvero siti che imitano quelli legittimi per veicolare false informazioni. L’uso di questi siti è centrale per il successo della campagna Doppelganger.

Uno dei documenti interni di SDA discute un progetto chiamato “International Conflict Incitement” (Incitamento a conflitti internazionali), il cui obiettivo è destabilizzare i paesi alleati degli Stati Uniti, come Germania e Francia, tramite la diffusione di disinformazione e la creazione di tensioni interne. L’idea è di usare strumenti come articoli falsi, video manipolati, e commenti sui social media per esacerbare divisioni sociali e politiche.

Campagna di guerriglia mediatica negli Stati Uniti

Uno dei progetti chiave è la Guerrilla Media Campaign negli Stati Uniti, il cui obiettivo è sfruttare la polarizzazione politica nel paese. SDA prevede di lavorare con account social media "peribili" (cioè account temporanei e usa e getta) su piattaforme come Facebook, Twitter (ora X), YouTube e Truth Social.
Questa campagna si concentrerà sulla pubblicazione di post, commenti, meme e video che assomigliano a notizie in stile Fox News, progettati per sembrare realistici. La strategia prevede l'uso di un minimo di notizie false, integrato con notizie reali, per rendere il tutto più credibile.
Un altro progetto si concentra sulla creazione di un network di 200 account su Twitter, con due account "attivi" e due "dormienti" per ognuno dei 50 stati americani. Questi account verranno presentati come attivisti locali di entrambe le fazioni politiche, con l'obiettivo di aumentare il numero di follower fino a un milione in un anno.

Una delle campagne in cantiere è intitolata “Mexico non perdona” e mira a fomentare sentimenti anti-americani e creare tensioni tra il Messico e gli Stati Uniti. Questa campagna, sebbene diretta principalmente a un pubblico messicano, è pensata per avere un impatto indiretto sulle elezioni statunitensi.
SDA, insieme ad altre entità russe, stia progettando di sviluppare nuovi marchi mediatici che sembrano indipendenti ma che in realtà sono controllati dalla Russia. Questi marchi pubblicheranno contenuti propagandistici che verranno distribuiti tramite influencer e commenti social.

Un altro metodo strategico è l’uso di influencer stranieri che possono diffondere la narrativa russa in paesi target. SDA punta a coinvolgere questi influencer, a volte anche "coccolandoli", per renderli più propensi a collaborare con la campagna.

I domini clonati erano incredibilmente sofisticati e difficili da distinguere dai siti originali

I domini cybersquattati utilizzati nella campagna Doppelganger sono stati acquistati da registrar statunitensi come Namecheap, NameSilo, e GoDaddy usando identità false. Questi acquirenti si sono mascherati dietro nomi di fantasia come “Kethorn,” “Kamcopec,” “Kaspartill,” e “Anguillet,” tutti collegati a indirizzi email falsi e a nomi e indirizzi inconsistenti.
Gli attori russi hanno utilizzato reti private virtuali (VPN) e server privati virtuali (VPS) per nascondere l'origine dei loro acquisti e dell'attività di questi domini, rendendo difficile tracciare i responsabili. La scelta di utilizzare registrar statunitensi è stata strategica per garantire che i domini sembrassero legittimi e connessi a entità statunitensi.
Gli agenti del FBI hanno localizzato e monitorato diversi siti cybersquattati utilizzati da Doppelganger, analizzando articoli pubblicati e tecniche di distribuzione. Sono stati trovati diversi articoli su domini che imitavano testate giornalistiche come Fox News e Washington Post, con contenuti che promuovono propaganda filo-russa.
Gli articoli sui domini falsi seguivano un chiaro schema filo-russo. Un tema ricorrente era che il sostegno dell’Occidente all’Ucraina fosse una decisione sbagliata e che avrebbe solo portato a ulteriori conflitti e danni. Gli articoli erano spesso progettati per influenzare elettori americani e europei a riconsiderare il loro sostegno all’Ucraina e ad adottare una visione più favorevole alla Russia.

Diffusione sui Social Media

Oltre ai siti falsi, la campagna si è basata pesantemente sull’uso di falsi profili sui social media per condividere articoli e diffondere link. Questi profili fingevano di essere cittadini americani o europei preoccupati, condividendo i contenuti come se fossero vere notizie. La campagna ha anche utilizzato annunci a pagamento per aumentare la visibilità dei contenuti falsi.
Gli attori della campagna sapevano esattamente chi volevano influenzare. Gli articoli e i post sui social erano mirati a gruppi specifici di elettori, spesso utilizzando un linguaggio che faceva appello a sentimenti patriottici o anti-establishment.
La campagna ha sviluppato una rete di falsi profili di influencer sui social media. Questi profili impersonavano personalità influenti in diversi paesi e utilizzavano un mix di post veri e falsi per costruire un seguito. Una volta guadagnata fiducia, questi profili iniziavano a diffondere contenuti di disinformazione. Gli influencer virtuali erano presentati come esperti in vari settori, compresi la politica e l'economia, per dare credibilità ai messaggi.

I profili falsi erano strategicamente creati per influenzare elettori in stati chiave durante le elezioni presidenziali del 2024. Gli account erano progettati per sembrare cittadini locali, con l'obiettivo di creare e diffondere contenuti polarizzanti che avrebbero potuto influenzare gli elettori in quelle aree.
Oltre agli Stati Uniti, la campagna mirava a espandersi in altre nazioni occidentali, inclusi la Germania, il Regno Unito e la Francia. La strategia era adattata a ciascun paese per sfruttare al massimo le divisioni politiche e sociali già esistenti. In Germania, ad esempio, si puntava a minare la fiducia nei confronti della NATO e a promuovere l'idea che le sanzioni contro la Russia stessero danneggiando l'economia tedesca.

Un altro metodo chiave era combinare fatti reali con notizie false. Questo approccio aumentava la credibilità della disinformazione, poiché i lettori, trovando parti veritiere, erano più inclini a credere anche agli elementi falsi. La capacità di mescolare abilmente questi due tipi di contenuti rendeva la campagna ancora più insidiosa.

Strategia per la manipolazione dell'opinione pubblica

La campagna ha creato ciò che viene chiamato un "cluster mediatico," ovvero un gruppo di siti web apparentemente indipendenti e legittimi, ma in realtà controllati dagli stessi attori russi. Questi siti pubblicano contenuti simili o identici, rinforzandosi a vicenda e creando l'apparenza di una copertura mediatica diffusa. Questo metodo permette di far sembrare che molteplici fonti supportino la stessa narrazione, aumentando così la credibilità dei messaggi.
I responsabili della campagna hanno coordinato la pubblicazione di articoli falsi su più siti allo stesso tempo, per massimizzare l’impatto e diffondere velocemente la disinformazione. Gli articoli venivano poi amplificati tramite i social media, con i falsi profili che condividevano gli stessi link, facendo sembrare che i contenuti provenissero da fonti diverse e indipendenti.
La campagna Doppelganger aveva un particolare interesse nel manipolare gli elettori degli stati chiave nelle elezioni presidenziali del 2024, come la Florida, l’Ohio e il Michigan. Gli attori russi studiavano attentamente le divisioni politiche locali e adattavano i loro messaggi per sfruttare queste fratture. La propaganda era progettata per screditare candidati favorevoli all’Ucraina o che sostenevano le sanzioni contro la Russia, dipingendoli come dannosi per l'economia o la sicurezza nazionale.
Oltre a influenzare le elezioni, la campagna mirava a creare divisioni politiche più profonde tra i diversi gruppi di elettori, facendo leva su questioni sensibili come l'immigrazione, la sicurezza nazionale e la corruzione politica. Gli attori cercavano di alimentare la sfiducia tra gli elettori e di dipingere il sistema politico americano come inefficace e corrotto.

Influenzare la politica in Europa

Mentre gli Stati Uniti erano l'obiettivo principale, anche l'Europa era nel mirino della campagna. In paesi come la Germania e la Francia, l'obiettivo era quello di indebolire le alleanze con gli Stati Uniti e minare il supporto per le sanzioni contro la Russia. Gli attori russi sfruttavano le preoccupazioni economiche in questi paesi, dipingendo le sanzioni come dannose per i cittadini europei.
Un tema ricorrente nella campagna europea era quello di screditare la NATO, presentandola come un'organizzazione aggressiva che provoca instabilità e conflitti, soprattutto in Ucraina. La Russia sperava di ridurre il sostegno pubblico per la NATO, soprattutto nei paesi che ospitavano basi militari o che avevano un ruolo attivo nelle operazioni dell'alleanza.
In alcuni casi, gli attori russi hanno collaborato con gruppi locali in Europa per amplificare le loro campagne di disinformazione. Questa collaborazione era volta a dare una parvenza di legittimità e autenticità alla propaganda russa, facendola sembrare una reazione genuina da parte delle popolazioni locali piuttosto che un’iniziativa orchestrata dal Cremlino.
Uno degli strumenti più efficaci utilizzati dagli attori russi era il microtargeting pubblicitario sui social media. Utilizzando le sofisticate opzioni di targeting offerte dalle piattaforme come Facebook e Twitter (ora X), la campagna poteva indirizzare specifici gruppi demografici con messaggi personalizzati. Gli annunci erano progettati per risuonare con particolari preoccupazioni di gruppi specifici, come l'economia, l’immigrazione o la sicurezza nazionale, adattando i contenuti per massimizzare l’effetto.
La campagna ha avuto l’effetto di minare la fiducia del pubblico nelle istituzioni democratiche e nei media tradizionali. Con la continua diffusione di teorie del complotto e notizie false, molti cittadini hanno iniziato a mettere in dubbio la legittimità delle elezioni e l'affidabilità dei media. Questo ha contribuito a creare un clima di divisione e sfiducia, soprattutto in paesi chiave come gli Stati Uniti e la Germania.

L’obiettivo degli attori russi non era solo quello di influenzare eventi a breve termine, come le elezioni, ma di creare un'infrastruttura di propaganda duratura. La rete di siti falsi, influencer e media locali garantiva che la disinformazione potesse continuare a diffondersi anche dopo il termine delle elezioni o degli eventi chiave, mantenendo viva la narrativa filo-russa.

Tecniche di disinformazione sempre più raffinate

Una delle caratteristiche chiave della campagna era la capacità di creare contenuti su misura per gruppi specifici di utenti. Attraverso un'attenta analisi dei dati raccolti dai social media e dai motori di ricerca, gli attori russi potevano identificare argomenti di interesse per diversi gruppi demografici e adattare i loro messaggi di conseguenza. Ad esempio, i contenuti per gli elettori americani più giovani si concentravano spesso su questioni sociali ed economiche, mentre per un pubblico più anziano venivano creati articoli incentrati su sicurezza e immigrazione.
Oltre ai tipici articoli brevi o ai post sui social media, la campagna produceva anche lunghi articoli di approfondimento che imitavano lo stile del giornalismo investigativo. Questi articoli spesso includevano citazioni inventate di esperti o riferimenti a studi falsi per dare un’apparenza di autorevolezza e legittimità alle notizie false. Questi articoli più approfonditi erano progettati per influenzare un pubblico più sofisticato e attento, che potrebbe essere scettico nei confronti delle fake news più ovvie.
Come parte della strategia di diffusione dei messaggi, gli attori russi avevano creato numerosi profili di falsi influencer su piattaforme come Twitter, Instagram e YouTube. Questi profili, che spesso accumulavano migliaia di follower, venivano utilizzati per condividere contenuti propagandistici e per commentare su questioni politiche sensibili. Alcuni di questi falsi influencer avevano anche creato relazioni con veri influencer, che a loro volta condividevano i contenuti, inconsapevoli dell’origine fraudolenta.
La campagna ha contribuito a esacerbare le divisioni politiche già esistenti, sia negli Stati Uniti che in Europa. Gli articoli e i post sui social media progettati per polarizzare l'opinione pubblica hanno avuto un forte impatto sulla coesione sociale, alimentando il sospetto e l’ostilità tra diversi gruppi di cittadini e partiti politici.

L'intelligenza artificiale al servizio della disinformazione russa

Gli attori della campagna facevano largo uso di bot avanzati per automatizzare la diffusione di contenuti. Questi bot erano in grado di interagire con post e articoli sui social media, simulando discussioni reali tra utenti. I bot erano programmati per seguire profili specifici, commentare post rilevanti e condividere articoli propagandistici, aumentando la visibilità dei contenuti falsi.
Oltre ai bot, venivano utilizzate tecnologie di intelligenza artificiale per generare automaticamente testi e articoli. Questi strumenti permettevano di creare un gran numero di articoli falsi in tempi molto rapidi, garantendo un flusso costante di contenuti da diffondere sui siti clonati e sui social media. Gli articoli generati automaticamente seguivano schemi narrativi predefiniti, adattandosi a temi come la politica, la sicurezza o l'economia.
La campagna ha fatto uso di strumenti di intelligenza artificiale per generare articoli automaticamente, basati su determinati input o parole chiave. Questi articoli erano strutturati per sembrare scritti da giornalisti reali, con una grammatica e uno stile adeguati, ma venivano creati in modo rapido e in grande quantità. Ciò permetteva agli attori russi di saturare il web con contenuti propagandistici in tempi brevi, mantenendo alta la visibilità dei loro messaggi.
Gli attori russi utilizzavano algoritmi avanzati per targetizzare specifici segmenti della popolazione. Utilizzando dati demografici e comportamentali raccolti dai social media, erano in grado di identificare gruppi vulnerabili o indecisi, e creare messaggi su misura per risuonare con le loro preoccupazioni e paure. Ad esempio, elettori giovani con interesse per l’economia potevano ricevere articoli che parlavano di crisi economiche legate alle sanzioni contro la Russia.
Un obiettivo strategico della campagna Doppelganger era dividere le società target in gruppi contrapposti, sfruttando temi polarizzanti come la migrazione, il cambiamento climatico e i diritti civili. La disinformazione amplificava le posizioni estreme, incoraggiando la radicalizzazione di entrambe le parti dello spettro politico. L'intento era creare una frammentazione sociale tale da rendere difficile qualsiasi tipo di dibattito costruttivo o cooperazione politica.

La campagna era progettata per impedire il raggiungimento di compromessi politici o sociali. Sfruttando la polarizzazione, gli attori russi cercavano di alimentare la diffidenza reciproca tra gruppi sociali e politici, rendendo impossibile qualsiasi forma di riconciliazione o dialogo costruttivo. Questo approccio ha contribuito a rafforzare le divisioni, indebolendo ulteriormente le democrazie target.

Manipolazione psicologica, sfruttamento delle paure e delle emozioni

Gli attori russi utilizzavano tecniche di manipolazione psicologica per influenzare l'opinione pubblica. I messaggi propagandistici erano spesso progettati per sfruttare paure profonde o emozioni forti, come la paura dell'immigrazione di massa o la minaccia di un conflitto nucleare. Questi messaggi emotivi erano più efficaci nel generare reazioni immediate e viscerali, spingendo le persone a condividere i contenuti senza verificarne la veridicità.
La campagna includeva contenuti progettati per scioccare il pubblico, come video falsi di violenze o disastri imminenti. Questo fattore shock era intenzionalmente utilizzato per catturare l’attenzione del pubblico e far diffondere i contenuti il più rapidamente possibile, sfruttando il ciclo delle notizie 24 ore su 24 e la reattività dei social media.
Gli attori russi utilizzavano tecniche avanzate di psicologia di massa per manipolare il pubblico. I messaggi erano progettati per sfruttare paure profonde e preoccupazioni sociali, come la sicurezza e la stabilità economica. Contenuti che generavano ansia o paura avevano maggiori probabilità di essere condivisi, poiché provocavano reazioni emotive immediate. Questo aumentava l’impatto della disinformazione, rendendo i messaggi virali sui social media.
La campagna incoraggiava attivamente conflitti tra diversi gruppi sociali ed etnici, sfruttando questioni delicate come il razzismo, l’immigrazione e i diritti civili. Gli attori russi diffondevano contenuti che polarizzavano il dibattito pubblico, spesso presentando le questioni in modo estremamente divisivo per esacerbare le tensioni esistenti e spingere le persone verso posizioni radicali.

Notizie false e teorie del complotto sulla Covid-19

La pandemia di COVID-19 è stata ampiamente sfruttata dagli attori russi per diffondere disinformazione su scala globale. Articoli falsi e teorie del complotto sulla gestione della pandemia, sui vaccini e sulle politiche di risposta al virus sono stati utilizzati per alimentare il caos e la confusione. L’obiettivo era minare la fiducia nei governi occidentali e nelle istituzioni sanitarie internazionali, suggerendo che la pandemia fosse stata sfruttata per controllare le popolazioni o limitare le libertà personali.
La campagna ha anche promosso teorie del complotto che collegavano eventi mondiali a un’agenda segreta gestita da élite globali. Queste teorie erano particolarmente popolari su piattaforme social non regolamentate, dove potevano diffondersi senza essere contestate. Gli attori russi utilizzavano queste teorie per seminare ulteriori dubbi e divisioni, presentando la Russia come un baluardo contro la manipolazione globale.
Un altro obiettivo degli attori russi era scoraggiare la partecipazione elettorale, specialmente tra gli elettori giovani e quelli indecisi. Diffondendo la convinzione che votare non avrebbe avuto alcun impatto, la campagna mirava a ridurre il numero di votanti e a creare un ambiente di apatia politica. Ciò avrebbe favorito candidati estremisti o polarizzanti, destabilizzando ulteriormente il sistema politico.
La pandemia di COVID-19 è stata ampiamente sfruttata dalla campagna per diffondere teorie del complotto e disinformazione sui vaccini, sulle misure di contenimento e sull'origine del virus. Gli attori russi hanno promosso narrazioni che mettevano in dubbio la legittimità delle politiche sanitarie dei governi occidentali, suggerendo che le misure fossero parte di un complotto per limitare le libertà individuali. Questa disinformazione ha avuto un impatto devastante sulla fiducia pubblica nelle istituzioni sanitarie e ha contribuito a rallentare gli sforzi di contenimento della pandemia.
Gli attori russi erano particolarmente abili nel sfruttare crisi globali, come guerre, disastri naturali o emergenze economiche, per amplificare la loro propaganda. La disinformazione veniva rapidamente adattata per riflettere gli eventi in corso, diffondendo narrative che incolpavano l’Occidente o promuovevano l’idea che solo la Russia fosse in grado di risolvere tali crisi.

L’effetto cumulativo della disinformazione ha avuto un impatto significativo sulla fiducia nelle elezioni democratiche, specialmente negli Stati Uniti. I messaggi diffusi dalla campagna cercavano di convincere il pubblico che le elezioni fossero state truccate o manipolate da poteri esterni. Questo tipo di disinformazione ha contribuito a creare un clima di sfiducia nei confronti delle istituzioni democratiche, aumentando la polarizzazione e la tensione tra i cittadini.

Razzismo, xenofobia ed anti europeismo

Uno dei temi più sfruttati dagli attori della campagna Doppelganger è stato quello dell’immigrazione e della crisi dei rifugiati, specialmente in Europa. La propaganda russa ha amplificato i timori legati all’arrivo di migranti e rifugiati, promuovendo l’idea che l’immigrazione fosse una minaccia per la sicurezza e l’economia delle nazioni europee. Gli articoli falsi e i post sui social media alimentavano sentimenti xenofobi e presentavano i governi come incapaci di gestire la situazione.
La campagna incoraggiava attivamente conflitti tra diversi gruppi sociali ed etnici, sfruttando questioni delicate come il razzismo, l’immigrazione e i diritti civili. Gli attori russi diffondevano contenuti che polarizzavano il dibattito pubblico, spesso presentando le questioni in modo estremamente divisivo per esacerbare le tensioni esistenti e spingere le persone verso posizioni radicali.
In diversi paesi europei, la campagna Doppelganger ha cercato di influenzare le elezioni sostenendo candidati populisti o anti-establishment. La propaganda promuoveva l’idea che i partiti tradizionali fossero corrotti o incompetenti, mentre i candidati populisti venivano dipinti come outsider capaci di difendere i veri interessi del popolo. In alcuni casi, i messaggi miravano a screditare le istituzioni europee, presentando l'Unione Europea come un'organizzazione oppressiva che danneggiava la sovranità nazionale.
Gli attori della campagna Doppelganger miravano anche a sfruttare e amplificare le tensioni razziali e sociali. Gruppi di minoranza, come comunità etniche o religiose, erano spesso target di disinformazione progettata per creare divisioni interne. Ad esempio, venivano diffusi articoli falsi su presunti crimini o abusi commessi da gruppi di minoranza, con l’obiettivo di alimentare il razzismo e l’odio.
Gli attori russi diffondevano anche falsi scandali riguardanti candidati favorevoli all'Unione Europea o alle politiche anti-russe. Questi scandali inventati cercavano di minare la credibilità dei candidati attraverso la diffusione di informazioni fuorvianti su corruzione, cattiva gestione o collegamenti con interessi stranieri. L’obiettivo era indebolire il sostegno a questi candidati e aumentare le possibilità di successo per i candidati più favorevoli a Mosca.

Creazione di realtà parallele e polarizzazione politica

Una delle tattiche emergenti utilizzate dagli attori russi era la creazione di video manipolati e deepfake per diffondere falsità su eventi o figure pubbliche. Questi video, generati utilizzando intelligenza artificiale, facevano sembrare che politici o personaggi famosi avessero fatto dichiarazioni o azioni che in realtà non erano mai avvenute. Questa tecnologia rappresentava una minaccia crescente, poiché i video erano difficili da distinguere dai contenuti reali e potevano essere condivisi rapidamente sui social media.
Oltre ai video, la campagna faceva largo uso di immagini e meme manipolati, che venivano diffusi sui social media per influenzare l'opinione pubblica. Questi meme spesso distorcevano eventi reali o esageravano situazioni per suscitare reazioni emotive forti, come rabbia o paura. La semplicità e la viralità dei meme permettevano di raggiungere un vasto pubblico in poco tempo, rendendo difficile contrastare l’impatto della disinformazione.
La disinformazione diffusa dagli attori russi ha esacerbato la polarizzazione politica e sociale, spingendo le persone verso posizioni sempre più estreme. La campagna mirava a rafforzare le divisioni tra gruppi sociali e politici, rendendo difficile qualsiasi tipo di compromesso o cooperazione. Questa polarizzazione ha creato un ambiente in cui il dialogo politico costruttivo è diventato quasi impossibile, poiché i diversi gruppi non condividevano più una base comune di fatti o valori.
Uno degli effetti più pervasivi della campagna era la creazione di vere e proprie "realtà parallele" in cui diversi segmenti della popolazione avevano visioni del mondo radicalmente diverse, basate sulle informazioni a cui erano esposti. Le persone che seguivano fonti di disinformazione vivevano in una realtà in cui fatti accertati venivano messi in discussione o completamente negati, rendendo impossibile un dibattito razionale o basato su dati concreti.
Le agenzie di propaganda legate al governo russo, come l'agenzia di notizie Sputnik e RT, sono state strettamente coinvolte nella creazione e diffusione di contenuti disinformativi. Questi media internazionali venivano utilizzati come piattaforme per far circolare storie e narrative false a supporto della propaganda russa.

Oltre ai social media, gli attori della campagna utilizzavano piattaforme di messaggistica criptata per coordinare le operazioni e diffondere i messaggi in modo sicuro, evitando il rilevamento da parte delle autorità. Telegram è una delle piattaforme citate in queste pagine come uno degli strumenti principali per la comunicazione tra gli attori della campagna.

Utilizzo di Telegram e altre piattaforme di messaggistica

Nel dossier, si dicscute come Telegram venga utilizzato come canale privilegiato per diffondere propaganda e coordinare campagne disinformative. Viene descritta la creazione di una rete di canali Telegram, integrata con Facebook, Instagram e Twitter, per aumentare l’influenza politica locale in Ucraina. L’obiettivo era creare contenuti non affiliati direttamente alla Russia, ma presentati come locali per aumentare la credibilità.
La campagna prevedeva la creazione di 20 canali tematici e 10 canali ausiliari su Telegram, ciascuno con contenuti mirati. La strategia era di evitare propaganda esplicita, ma utilizzare narrazioni presentate in modo sottile per influenzare l'opinione pubblica.
Un'altra tecnica importante era il targeting dei commenti nei forum e nei post social delle comunità regionali in Ucraina. Utilizzando account bot, gli attori della campagna postavano commenti contenenti contenuti propagandistici che apparivano specificamente rilevanti per ciascuna regione.
La pubblicità mirata su Facebook veniva usata per influenzare segmenti demografici specifici, con particolare attenzione a geografia, interessi e risposte psicologiche. Le reazioni del pubblico venivano monitorate in tempo reale, con mappe di reazione che permettevano di adattare i messaggi per massimizzare l'effetto.

Reti di "gruppi dormienti" nei social media

Viene proposta la creazione di gruppi regionali in Ucraina posizionati come fonti di notizie locali neutrali. Questi gruppi avrebbero costruito una base di utenti organica attraverso pubblicazioni quotidiane di contenuti di intrattenimento e notizie locali. Dopo aver ottenuto un pubblico significativo, sarebbero stati utilizzati per diffondere messaggi pro-Russia al momento opportuno .
Il portale "Vzglyad na Ukrainu" era progettato per aggregare opinioni e notizie critiche nei confronti della leadership ucraina, con una percentuale significativa di contenuti ripresi da influencer ucraini. Il portale doveva promuovere una narrazione di crisi, corruzione e deterioramento delle condizioni di vita, rafforzando l'immagine di una situazione disastrosa in Ucraina.
Viene evidenziato l'uso di pubblicità mirata su Facebook per influenzare il pubblico ucraino. I contenuti venivano progettati per suscitare forti reazioni negative verso la leadership ucraina, mentre si promuovevano indirettamente gli interessi russi .
Le agenzie di propaganda legate al governo russo, come l'agenzia di notizie Sputnik e RT, sono state strettamente coinvolte nella creazione e diffusione di contenuti disinformativi. Questi media internazionali venivano utilizzati come piattaforme per far circolare storie e narrative false a supporto della propaganda russa.

Oltre ai social media, gli attori della campagna utilizzavano piattaforme di messaggistica criptata per coordinare le operazioni e diffondere i messaggi in modo sicuro, evitando il rilevamento da parte delle autorità. Telegram è una delle piattaforme citate in queste pagine come uno degli strumenti principali per la comunicazione tra gli attori della campagna.

Siti di notizie italiani falsificati

La campagna di disinformazione "Doppelganger" ha incluso la creazione di siti web che imitavano testate giornalistiche italiane, come ANSA. Questi siti venivano usati per pubblicare articoli disinformativi, spesso riguardanti il conflitto in Ucraina, volti a minare la credibilità delle notizie e seminare dubbi tra il pubblico.
La campagna ha preso di mira Facebook in Italia con post che chiedevano la fine delle spedizioni di armi all'Ucraina, cercando di capitalizzare sulle decisioni politiche dell'Italia in merito al conflitto russo-ucraino. Questi post erano coordinati con politiche specifiche per massimizzare l'impatto sulla popolazione.
Articoli falsi su temi come i crimini di guerra a Bucha, in Ucraina, venivano pubblicati su siti imitativi di fonti italiane, francesi e tedesche. Questi articoli venivano tradotti in varie lingue, tra cui l'italiano, e distribuiti su più piattaforme per amplificare la disinformazione​
l'Italia è stata un target importante per le operazioni di disinformazione russa, in particolare attraverso l'uso di siti web falsi e campagne sui social media per influenzare l'opinione pubblica riguardo al conflitto in Ucraina.
Il progetto "Doppelganger" emerge come una delle campagne di disinformazione più sofisticate e pericolose promosse dalla Russia. È caratterizzato da una serie di tecniche ingannevoli mirate a diffondere propaganda pro-Cremlino attraverso l'uso di domini cybersquattati e bot, manipolando l'informazione su scala globale. Gli obiettivi principali del progetto includono il tentativo di minare la fiducia pubblica nelle istituzioni democratiche, destabilizzare la coesione politica in Occidente, e influenzare direttamente le elezioni politiche e le percezioni sulla guerra in Ucraina.
arrow-right