A un click da X

Gli Strumenti Siamo Noi (Seconda Parte)

(trovi la prima parte qui)

L’inconscio digitale

Nel film Ex Machina di Alex Garland c’è un passaggio molto significativo, che mi è rimasto in mente. Nathan, il geniale creatore del motore di ricerca più diffuso al mondo, dice: “Vedi, i miei competitor si intestardivano a usare i motori di ricerca per monetizzare con shopping e social media. Pensavano che i motori fossero una mappa di COSA pensa la gente ma in realtà sono una mappa di COME pensa la gente”. Ecco, a parer mio è proprio in questa distinzione tra il cosa e il come che risiede il nodo cruciale per comprendere l’evoluzione e l’orientamento delle nuove tecnologie digitali.

Nei primi anni del 2000 – sostanzialmente fino all’avvento e alla diffusione dei social network – gli algoritmi di profilazione si limitavano a raccogliere, elaborare e rivendere alle aziende dati sull’età, il reddito o le abitudini d’acquisto degli utenti, ovviamente al fine di proporre messaggi pubblicitari sempre più personalizzati ed efficaci. L’utente, dal canto suo, era implicitamente e tacitamente consapevole che la mercificazione dei propri dati fosse il prezzo da pagare per essere online. Una versione più complessa ma in sostanza molto simile a ciò che avviene con la pubblicità che interrompe i film in tv.

Non che oggi tutto ciò non avvenga più, intendiamoci: il fine è e sarà sempre quello di far denaro. Ma ho la netta impressione che molti di noi non abbiano ben chiaro quanto gli algoritmi di profilazione si siano evoluti con la diffusione dei social network, e di quanto i loro obiettivi siano cambiati. E soprattutto di quanto in fretta stiano affinando le loro capacità. Il che non stupisce, visto che attingono a piene mani dalla grande fornace in cui tutti noi, miliardi di persone, ogni giorno, gettiamo il cibo di cui voracemente si nutrono: il nostro io virtuale, i nostri dati, e talvolta – chi in un modo chi nell’altro – le nostre emozioni, i nostri desideri, le nostre paure.

Gli algoritmi che operano oggi nelle reti sociali e nei motori di ricerca non sono più progettati per capire se ti serve un nuovo ferro da stiro o un corso d’inglese; o per sapere qual è il tuo colore preferito, o quanti soldi hai nella carta di credito, o a che ora di solito vai in bagno e quanto tempo ci trascorri. Quello lo sanno già. Quella è roba da internet 1.0. No, oggi gli algoritmi vogliono capire chi sei, come sei. Ed è su questo terreno che stanno già operando da tempo.

Questi silenziosi artigiani del digitale sono progettati oggi per comporre un ritratto estremamente approfondito di noi utenti, risultato di un meticoloso processo basato sulla raccolta e l’elaborazione delle innumerevoli tracce che seminiamo nel nostro viaggio online. La durata e la velocità dello scroll, le pause su contenuti specifici, l’esitazione prima di un click, i like, le condivisioni. Ogni interazione, ogni nostro gesto – persino l’intensità della pressione del nostro dito sullo schermo – viene registrato, misurato, catalogato e infine processato per costruire un quadro incredibilmente dettagliato e penetrante del nostro essere, del nostro agire sulla rete. L’obiettivo è quello di intercettare pattern di comportamento che nemmeno noi stessi riconosciamo, al fine di anticipare e influenzare le nostre azioni future, e di qui tracciare scenari predittivi che trovano applicazione in diversi settori, dal marketing politico alle strategie di vendita.

Gli algoritmi navigano tra i complessi labirinti della nostra personalità, riescono a decodificare i nostri tratti caratteriali, le nostre emozioni, i nostri desideri. Profilano le nostre inclinazioni politiche basandosi sui contenuti che leggiamo o condividiamo. Analizzano le nostre interazioni sociali cercando di decifrare la nostra posizione all’interno del gruppo e le affinità con certe comunità o ideologie, riuscendo ad intuire non solo i legami evidenti ma anche le tensioni, le simpatie e le antipatie sotterranee. Se negli ultimi 5 anni non abbiamo vissuto su un anello di Saturno, dovremmo sapere bene che la priorità e la visibilità date a certi profili o determinati contenuti non sono casuali, ma calibrate per stimolare specifiche emozioni o comportamenti. L’abilità degli algoritmi di affinare la conoscenza dei nostri comportamenti online ha due fili di sviluppo paralleli ma fortemente interconnessi.

Il primo: la creazione di un’esperienza utente iper-personalizzata, che ci pone all’interno di un ecosistema informativo che corrisponde e al tempo stesso modella la nostra visione del mondo. Ciò che ci appare sullo schermo, in un sistema dominato dagli algoritmi, non è il mondo nella sua complessità e diversità, ma un’immagine speculare dei nostri preconcetti, dei nostri bias e delle nostre aspettative.

Il secondo: un potenziale strumento di manipolazione, che ha il potere di guidare e influenzare decisioni, comportamenti e percezioni. Con un obiettivo finale tanto chiaro quanto freddamente pragmatico: la trasformazione delle nostre intere esistenze virtuali in prodotti vendibili al miglior offerente. Che, ben inteso, potrebbe non sempre – o meglio, non solo – coincidere con l’inserzionista che mira a promuovere un prodotto, ma estendersi a soggetti con finalità ben più ampie.

La mercificazione del caos

La tendenza dei social media a rinchiudere gli utenti nelle cosiddette echo chambers si basa sul principio di conferma del bias: all’interno delle proprie camere di risonanza informativa, le persone sono esposte prevalentemente a contenuti che rafforzano le loro credenze preesistenti e schermano qualsiasi voce dissonante, inglobandole in un loop di autoconferma in cui la diversità di pensiero viene estromessa. Ciò rafforza ulteriormente l’ancoraggio dell’utente alla piattaforma, poiché il social network diventa il luogo dove trovare conferma, appoggio e legittimazione delle proprie idee.

Questo senza dubbio crea un ambiente rassicurante ed accogliente, ma che nasconde un’insidia: questa bolla di confortevole uniformità potrebbe condurre rapidamente alla saturazione informativa e, in ultima istanza, alla noia. Tuttavia, l’architettura stessa dei social media è progettata per evitare la stagnazione. Ed è per questo che gli algoritmi, consapevoli di ciò, incorporano elementi di dissenso e controversia per mantenere elevato l’engagement, generando onde di polemica e scompiglio. La polarizzazione delle opinioni dunque non è solo una conseguenza di questo processo, ma un ingrediente essenziale per mantenerne in moto i meccanismi.

La fake news, in questo contesto, agisce come un catalizzatore di disordine, invitando l’utente all’indagine e alla critica, e suscitando reazioni forti e contrapposte che mantengono alto il livello di attenzione e di interazione. L’ingarbugliamento delle trame informative crea un bisogno di costante navigazione, una ricerca spasmodica e quasi ossessiva di chiarezza in un mare di disinformazione. Il caos generato diventa dunque un motore potente per l’engagement: gli utenti, sballottati tra verità e menzogna, si immergono più profondamente nell’ambiente virtuale, cercando, commentando, condividendo, opponendosi, creando nuovi contenuti.

Una ricerca condotta dal MIT nel 2018 (qui il link per chi vuole approfondire) ha portato alla luce un dato preoccupante, direi inquietante: le fake news viaggiano attraverso Twitter a una velocità 6 volte superiore rispetto alle notizie veritiere. E certo, come si è detto, non soltanto per responsabilità di utenti creduloni o malintenzionati.

C’è da sottolineare che le fake news non sono un fenomeno omogeneo, ma si manifestano in forme diverse. Alcune sono completamente inventate, create deliberatamente per ingannare. Altre hanno radici in fatti reali, ma sono distorte o esagerate fino a trasformarsi in menzogne. Ci sono poi le teorie del complotto, che si basano su interpretazioni errate o malintenzionate di eventi o dati. Infine, esistono le bufale di propaganda, che sono usate per manipolare l’opinione pubblica o per denigrare un avversario politico o commerciale. Ovviamente il discorso andrebbe argomentato da diversi punti di vista, in base alla tipologia di fake news trattata.

Ma al di là di questo, credo che il dato messo in luce dal MIT debba suscitare un interrogativo ben più rilevante: è davvero utile combattere queste menzogne digitali sullo stesso terreno in cui fioriscono con tale rigogliosa rapidità? Quanto mai potrà risultare efficace confutare falsità su una piattaforma che è creata, modellata, ingegnerizzata al fine di favorirne la diffusione e la viralità? E poi pensiamo davvero che un hashtag possa influenzare chi è saldamente ancorato alle proprie granitiche e immutabili convinzioni ideologiche? Se c’è una cosa che appare fin troppo chiara è che sui social quasi nessuno è interessato o disposto a mettere in discussione la propria posizione rispetto a determinati argomenti. Nemmeno di fronte a prove inconfutabili.

La diffusione mirata di informazioni false persegue dunque uno scopo che va ben oltre l’intento di modellare la nostra visione del mondo attraverso false narrazioni, bensì consiste nell’iniettare un seme persistente di scetticismo nei confronti di ogni forma di autorità informativa. In buona sostanza, l’obiettivo non è indurci a credere in qualcosa, ma spingerci a non credere in nulla, demolendo la nostra fiducia nell’esistenza di una verità oggettiva, di una realtà condivisa.

Il perché è presto detto: una società dove la verità è percepita come fluida, relativa o irraggiungibile è una società più facile da manipolare. Se le persone sono indotte a dubitare della validità delle informazioni che ricevono, esse diventano progressivamente più suscettibili alle narrazioni costruite ad arte, che, pur essendo altrettanto prive di fondamento, sono però rassicuranti o confermano i loro pregiudizi. Tutto ciò, alla luce di quel che abbiamo osservato finora, si traduce in una prateria sconfinata di opportunità per sviluppare nuove strategie di engagement che, in nome del denaro, sfruttano le nostre vulnerabilità emotive.

Nel momento stesso in cui la falsa informazione viene lanciata e condivisa, il seme del dubbio viene piantato e il suo scopo, che consiste  appunto nell’instillare sfiducia nella verità, viene raggiunto. A quel punto, tutto ciò che segue è pressoché inutile e controproducente. L’atto stesso di contraddire e confutare, smentire e argomentare, o anche solo discutere e ridicolizzare le affermazioni altrui, anziché erodere la solidità della menzogna la rafforza, confermando i bias cognitivi e polarizzando ulteriormente le posizioni.

E mentre ci lasciamo coinvolgere in questa titanica battaglia digitale, scambiando insulti e difendendo strenuamente le nostre posizioni, il traffico sui social impenna, i proventi pubblicitari aumentano e la nostra attenzione viene totalmente assorbita in questo vortice distruttivo, ponendoci alla mercé degli algoritmi di profilazione che lavorano senza sosta. Il risultato? Una montagna di soldi.

In sostanza, la strategia di disseminare il caos attraverso le fake news, per quanto moralmente e socialmente deprecabile, si dimostra una tattica assai lucrativa. Nei social network, governati da questa logica, le dinamiche di conflitto, confusione e ricerca spasmodica di senso si traducono in un flusso continuo di interazioni, che a loro volta si traducono in capitali sonanti. Un macabro gioco dove la perdita di verità e coesione sociale diviene il prezzo da pagare per un affare miliardario.

(continua)

L’immagine che illustra questo contributo è “Man with dog”, di Banksy

Nota sulla proprietà intellettuale

Ogni diritto sui contenuti (a titolo esemplificativo, documenti, segni distintivi, immagini, files, architettura del sito) è riservato ai sensi della normativa vigente. La riproduzione anche parziale, in qualsiasi forma, ad esempio, ma non esclusivamente, del testo, sia in forma testuale che come immagine e delle immagini, se non esplicitamente autorizzata, sarà perseguita a termini di legge nei confronti di soggetti singoli e/o realtà aziendali.Devi specificare un indirizzo di email valido per aggiungere un commento

24 commenti su “Gli Strumenti Siamo Noi (Seconda Parte)”

I commenti sono chiusi.