Le vie del contagio

Le metafore di tipo biologico non sono una novità nel campo dell’informatica: da sempre i programmi creati per causare problemi ai computer sono infatti chiamati “virus”. Non è quindi strano che anche le cosiddette “fake news”[1] vengono spesso definite come se fossero una sorta di malvagia entità biologica che colpisce l’informazione, un parassita che si infiltra nei suoi canali e che può arrivare a “contagiare” le singole persone che ci vengano in contatto. Mai come in questi momenti la diffusione di notizie false assume una valenza così preoccupante, quando ci sono persone che pubblicano ma soprattutto diffondono evidenti falsità in un contesto nel quale queste potrebbero danneggiare concretamente ed irreparabilmente altri. Spesso però le persone che veicolano certe notizie non si rendono pienamente conto del fatto che stanno contribuendo ad intossicare i canali della comunicazione, magari facendo passare in secondo piano informazioni che oggi potrebbero anche fare la differenza. Tralasciando tutto quello che riguarda le motivazioni che stanno dietro la creazione delle “fake news” e la loro tassonomia proviamo a descrivere brevemente il fenomeno e le modalità di diffusione. In una recente ricerca,[2] svolta analizzando milioni di comunicazioni tramite twitter si sostiene che le notizie false si diffondono più velocemente di quelle vere e raggiungono anche un maggior numero di persone. Una delle ipotesi proposte è che questo avvenga perché quasi sempre le notizie false sono più nuove ed inconsuete rispetto a quelle vere. Un altro motivo potrebbe essere legato alle sensazioni che prova chi legge una notizia che renderebbe preferibile diffondere qualcosa di nuovo e non consueto piuttosto che qualcosa di già noto. Sempre secondo questa ricerca i risultati della diffusione non sarebbero influenzati dai “bot”[3] ma principalmente dal comportamento delle singole persone. Altri ricercatori[4] hanno sottolineato che la velocità della replicazione dei messaggi è maggiore se sono indirizzati a un numero relativamente piccolo di persone ma particolarmente influenti e che i “bot” sono più efficaci dei “troll”,[5] soprattutto quando si tratta di diffondere un numero enorme di messaggi in un breve lasso di tempo ed in special modo quelli che fanno leva sulle emozioni e che hanno un contenuto informativo limitato. I “troll” invece avrebbero, rispetto ai “bot” una capacità maggiore di convincimento individuale. Si potrebbero citare anche altre ricerche che, in linea di massima, confermano alcune cose e ne sottolineano altre ma tutte ritengono che i “social media” (Facebook, Twitter, Instagram, ecc…) sono i principali canali attraverso i quali le “fake news” si propagano e che a diffonderle sono sia persone in carne e ossa sia programmi software; inoltre sui “social media” non è possibile determinare, almeno non in modo definitivo, il numero delle une e degli altri. Alcuni ritengono che il 9-15% degli account su Twitter potrebbero non essere di persone reali.[6], altri che quei numeri siano assai più consistenti.[7] Qualcuno addirittura ha provato a contare tutti i “bot” esistenti sui “social media”: Twitter 23 milioni, Facebook 140 milioni, Instagram 27 milioni, ai quali vanno aggiunti quelli su altre piattaforme meno popolari.[8] Ricordiamo che i “bot” vengono comunemente usati dai padroni dei “social media” all’interno della loro strategia volta ad aumentare i profitti ed anche i clienti aziendali di queste piattaforme sono spesso autorizzati a usarli.[9] Bisogna inoltre anche tener presente che questi programmi possono anche svolgere dei compiti che hanno una qualche utilità. Qualunque sia la realtà concreta dei numeri resta il fatto, incontrovertibile, che la diffusione delle notizie false sia sempre e comunque da imputare a esseri umani, direttamente o indirettamente, in quanto a scrivere i “bot” sono comunque delle persone. Considerare quello che viene prodotto automaticamente da un software come se fosse qualcosa di diverso significa solo non voler riconoscere la realtà. Anche quando una notizia falsa è stata diffusa da un “bot”, la sua propagazione virale è facilitata dal fatto che viene ripresa e ripubblicata da persone che, in generale, si potrebbero dividere in due categorie. Della prima fanno parte quelli che sostanzialmente concordano, in tutto o in parte, con il contenuto di quello che diffondono e che quindi non sentono alcuna necessità di verificarne la fonte o l’attendibilità. Alla seconda invece appartengono coloro che, a causa della loro scarsa dimestichezza con la tecnologia, non sarebbero in grado di controllare la veridicità di quello che leggono. Si tratta quindi di un problema legato direttamente al comportamento delle persone: se una persona non è abituata a verificare la notizia che sta diffondendo o se non sa come farlo probabilmente diventerà, prima o poi, un inconsapevole veicolo di informazioni false. Periodicamente i padroni delle piattaforme commerciali annunciano di aver preso misure per tenere “puliti” i loro “social media” che sono sostanzialmente di due tipi: la cancellazione degli account “falsi” e la creazione di programmi di controllo automatizzato che si vanno ad aggiungere ai gruppi di controllori umani. Il primo sistema è chiaramente solo un palliativo in quanto è possibile creare nuovi “falsi” utenti con la stessa velocità con la quale vengono eliminati quelli vecchi. Il secondo, nonostante venga considerato in modo favorevole, soprattutto dai mass media ufficiali e dalle istituzioni, non ha dato, almeno fino a questo momento, i risultati propagandati. Gli ottimisti, dopo aver rilevato il sostanziale insuccesso dei sistemi attualmente in uso, prevedono che ce ne saranno di migliori in un prossimo futuro.[10] Alla fine l’opzione che resta sempre saldamente in campo è quella di una regolamentazione stretta dei “social media” che si scontra contro gli stessi muri di sempre: la legislazione diversa per risorse ai quali hanno accesso cittadini da tutto il mondo, il fatto che queste piattaforme appartengono a imprese commerciali private, la difficoltà di implementare determinati tipi di misure riguardo la comunicazione in Rete proprio a causa delle sue caratteristiche. Il pericolo più concreto è che, in caso di approvazioni di norme volte a regolamentare questo settore, ad essere colpiti da repressione e censura saranno soprattutto le risorse di comunicazione non
commerciali ed indipendenti nonché tutti coloro che le gestiscono e le utilizzano. Non certamente chi ha a disposizione avvocati lautamente pagati per difendere i suoi interessi economici.
Il rischio di contribuire con il proprio comportamento alla diffusione di “fake news” lo corrono tutti, anche quelli che ritengono di essere capaci di difendersi da questo genere di pericoli. Per mitigare questo rischio non è necessario fare affidamento sulle buone intenzioni di aziende che hanno come fine il profitto e nemmeno diventare un super esperto, spesso basta anche solo un minimo di buon senso e di attenzione. Per esempio se una persona pubblica in qualsiasi momento nell’arco delle 24 ore e sette giorni su sette ci si può chiedere quando dorme ed i “bot” (di solito) non dormono.[11] Considerare il proliferare delle notizie false come un problema principalmente, se non addirittura esclusivamente, tecnologico significa concentrarsi su un obiettivo sbagliato. Le persone non sono solo le vittime delle “fake news” ma anche la principale causa della loro diffusione.

Pepsy

RIFERIMENTI

[1] Anche se la definizione di “fake news” comprende diverse tipologie di contenuti in questo caso useremo il termine come sinonimo di “notizie false”.

[2] Vosoughi et al., “The spread of true and false news online”, Science 359, 1146–1151 (2018). Liberamente disponibile qui https://science.sciencemag.org/content/sci/359/6380/1146.full.pdf

[3] I “bot” (contrazione di “robot”) sono dei programmi che eseguono automaticamente i compiti per i quali sono stati creati. In alcuni casi pubblicano automaticamente su una risorse dati che prelevano da altri flussi di informazione. In altri casi “impersonano” su un “social media” un essere vivente e pubblicano notizie predeterminate da chi ha creato il programma o prelevate da determinate fonti. In questo caso vengono definiti anche “social bot” o “socbot”.

[4] Vedi https://engineering.stanford.edu/magazine/article/how-fake-news-spreads-real-virus

[5] Vengono definiti “troll” le persone che, per attitudine o per lavoro, mandano messaggi o pubblicano contenuti destinati a provocare confusione o litigi all’interno dei diversi ambiti di comunicazione esistenti in Rete.

[6] Onur Varol et al., “Online Human-Bot Interactions: Detection, Estimation, and Characterization”. Liberamente disponibile qui https://aaai.org/ocs/index.php/ICWSM/ICWSM17/paper/view/15587/14817

[7] David Caplan, cofondatore di TwitterAudit: “In base ai nostri dati stimiamo che gli account reali su Twitter sono tra il 40% e il 60% del totale”; vedi https://gizmodo.com/how-many-social-media-users-are-real-people-1826447042

[8] Carolina Alves de Lima, Nicholas Berente, “Computing Ethics. Is That Social Bot Behaving Unethically?£. Liberamente disponibile qui https://www.researchgate.net/publication/319280707_Is_that_social_bot_behaving_unethically

[9] FaceBook dichiara che sulla sua piattaforma sono in funzione 300 mila “bot” autorizzati. Vedi https://ignitevisibility.com/social-media-statistics/#socialmediastatistics

[10] Vedi, per esempio, le conclusioni di alcuni ricercatori del MIT qui https://venturebeat.com/2018/10/03/mit-csails-ai-can-detect-fake-news-and-political-bias/ e la ricerca di Tal Schuster et al., “Towards Debiasing Fact Verification Models” Liberamente disponibile qui https://arxiv.org/pdf/1908.05267.pdf

[11] Uno dei tanti articoli scritti per chi voglia imparare a distinguere un “bot” da un umano si può leggere qui https://medium.com/data-for-democracy/spot-a-bot-identifying-automation-and-disinformation-on-social-media-2966ad93a203

Related posts