(trovi la prima parte qui)
L’inconscio digitale
Nel film Ex Machina di Alex Garland c’è un passaggio molto significativo, che mi è rimasto in mente. Nathan, il geniale creatore del motore di ricerca più diffuso al mondo, dice: “Vedi, i miei competitor si intestardivano a usare i motori di ricerca per monetizzare con shopping e social media. Pensavano che i motori fossero una mappa di COSA pensa la gente ma in realtà sono una mappa di COME pensa la gente”. Ecco, a parer mio è proprio in questa distinzione tra il cosa e il come che risiede il nodo cruciale per comprendere l’evoluzione e l’orientamento delle nuove tecnologie digitali.
Nei primi anni del 2000 – sostanzialmente fino all’avvento e alla diffusione dei social network – gli algoritmi di profilazione si limitavano a raccogliere, elaborare e rivendere alle aziende dati sull’età, il reddito o le abitudini d’acquisto degli utenti, ovviamente al fine di proporre messaggi pubblicitari sempre più personalizzati ed efficaci. L’utente, dal canto suo, era implicitamente e tacitamente consapevole che la mercificazione dei propri dati fosse il prezzo da pagare per essere online. Una versione più complessa ma in sostanza molto simile a ciò che avviene con la pubblicità che interrompe i film in tv.
Non che oggi tutto ciò non avvenga più, intendiamoci: il fine è e sarà sempre quello di far denaro. Ma ho la netta impressione che molti di noi non abbiano ben chiaro quanto gli algoritmi di profilazione si siano evoluti con la diffusione dei social network, e di quanto i loro obiettivi siano cambiati. E soprattutto di quanto in fretta stiano affinando le loro capacità. Il che non stupisce, visto che attingono a piene mani dalla grande fornace in cui tutti noi, miliardi di persone, ogni giorno, gettiamo il cibo di cui voracemente si nutrono: il nostro io virtuale, i nostri dati, e talvolta – chi in un modo chi nell’altro – le nostre emozioni, i nostri desideri, le nostre paure.
Gli algoritmi che operano oggi nelle reti sociali e nei motori di ricerca non sono più progettati per capire se ti serve un nuovo ferro da stiro o un corso d’inglese; o per sapere qual è il tuo colore preferito, o quanti soldi hai nella carta di credito, o a che ora di solito vai in bagno e quanto tempo ci trascorri. Quello lo sanno già. Quella è roba da internet 1.0. No, oggi gli algoritmi vogliono capire chi sei, come sei. Ed è su questo terreno che stanno già operando da tempo.
Questi silenziosi artigiani del digitale sono progettati oggi per comporre un ritratto estremamente approfondito di noi utenti, risultato di un meticoloso processo basato sulla raccolta e l’elaborazione delle innumerevoli tracce che seminiamo nel nostro viaggio online. La durata e la velocità dello scroll, le pause su contenuti specifici, l’esitazione prima di un click, i like, le condivisioni. Ogni interazione, ogni nostro gesto – persino l’intensità della pressione del nostro dito sullo schermo – viene registrato, misurato, catalogato e infine processato per costruire un quadro incredibilmente dettagliato e penetrante del nostro essere, del nostro agire sulla rete. L’obiettivo è quello di intercettare pattern di comportamento che nemmeno noi stessi riconosciamo, al fine di anticipare e influenzare le nostre azioni future, e di qui tracciare scenari predittivi che trovano applicazione in diversi settori, dal marketing politico alle strategie di vendita.
Gli algoritmi navigano tra i complessi labirinti della nostra personalità, riescono a decodificare i nostri tratti caratteriali, le nostre emozioni, i nostri desideri. Profilano le nostre inclinazioni politiche basandosi sui contenuti che leggiamo o condividiamo. Analizzano le nostre interazioni sociali cercando di decifrare la nostra posizione all’interno del gruppo e le affinità con certe comunità o ideologie, riuscendo ad intuire non solo i legami evidenti ma anche le tensioni, le simpatie e le antipatie sotterranee. Se negli ultimi 5 anni non abbiamo vissuto su un anello di Saturno, dovremmo sapere bene che la priorità e la visibilità date a certi profili o determinati contenuti non sono casuali, ma calibrate per stimolare specifiche emozioni o comportamenti. L’abilità degli algoritmi di affinare la conoscenza dei nostri comportamenti online ha due fili di sviluppo paralleli ma fortemente interconnessi.
Il primo: la creazione di un’esperienza utente iper-personalizzata, che ci pone all’interno di un ecosistema informativo che corrisponde e al tempo stesso modella la nostra visione del mondo. Ciò che ci appare sullo schermo, in un sistema dominato dagli algoritmi, non è il mondo nella sua complessità e diversità, ma un’immagine speculare dei nostri preconcetti, dei nostri bias e delle nostre aspettative.
Il secondo: un potenziale strumento di manipolazione, che ha il potere di guidare e influenzare decisioni, comportamenti e percezioni. Con un obiettivo finale tanto chiaro quanto freddamente pragmatico: la trasformazione delle nostre intere esistenze virtuali in prodotti vendibili al miglior offerente. Che, ben inteso, potrebbe non sempre – o meglio, non solo – coincidere con l’inserzionista che mira a promuovere un prodotto, ma estendersi a soggetti con finalità ben più ampie.
La mercificazione del caos
La tendenza dei social media a rinchiudere gli utenti nelle cosiddette echo chambers si basa sul principio di conferma del bias: all’interno delle proprie camere di risonanza informativa, le persone sono esposte prevalentemente a contenuti che rafforzano le loro credenze preesistenti e schermano qualsiasi voce dissonante, inglobandole in un loop di autoconferma in cui la diversità di pensiero viene estromessa. Ciò rafforza ulteriormente l’ancoraggio dell’utente alla piattaforma, poiché il social network diventa il luogo dove trovare conferma, appoggio e legittimazione delle proprie idee.
Questo senza dubbio crea un ambiente rassicurante ed accogliente, ma che nasconde un’insidia: questa bolla di confortevole uniformità potrebbe condurre rapidamente alla saturazione informativa e, in ultima istanza, alla noia. Tuttavia, l’architettura stessa dei social media è progettata per evitare la stagnazione. Ed è per questo che gli algoritmi, consapevoli di ciò, incorporano elementi di dissenso e controversia per mantenere elevato l’engagement, generando onde di polemica e scompiglio. La polarizzazione delle opinioni dunque non è solo una conseguenza di questo processo, ma un ingrediente essenziale per mantenerne in moto i meccanismi.
La fake news, in questo contesto, agisce come un catalizzatore di disordine, invitando l’utente all’indagine e alla critica, e suscitando reazioni forti e contrapposte che mantengono alto il livello di attenzione e di interazione. L’ingarbugliamento delle trame informative crea un bisogno di costante navigazione, una ricerca spasmodica e quasi ossessiva di chiarezza in un mare di disinformazione. Il caos generato diventa dunque un motore potente per l’engagement: gli utenti, sballottati tra verità e menzogna, si immergono più profondamente nell’ambiente virtuale, cercando, commentando, condividendo, opponendosi, creando nuovi contenuti.
Una ricerca condotta dal MIT nel 2018 (qui il link per chi vuole approfondire) ha portato alla luce un dato preoccupante, direi inquietante: le fake news viaggiano attraverso Twitter a una velocità 6 volte superiore rispetto alle notizie veritiere. E certo, come si è detto, non soltanto per responsabilità di utenti creduloni o malintenzionati.
C’è da sottolineare che le fake news non sono un fenomeno omogeneo, ma si manifestano in forme diverse. Alcune sono completamente inventate, create deliberatamente per ingannare. Altre hanno radici in fatti reali, ma sono distorte o esagerate fino a trasformarsi in menzogne. Ci sono poi le teorie del complotto, che si basano su interpretazioni errate o malintenzionate di eventi o dati. Infine, esistono le bufale di propaganda, che sono usate per manipolare l’opinione pubblica o per denigrare un avversario politico o commerciale. Ovviamente il discorso andrebbe argomentato da diversi punti di vista, in base alla tipologia di fake news trattata.
Ma al di là di questo, credo che il dato messo in luce dal MIT debba suscitare un interrogativo ben più rilevante: è davvero utile combattere queste menzogne digitali sullo stesso terreno in cui fioriscono con tale rigogliosa rapidità? Quanto mai potrà risultare efficace confutare falsità su una piattaforma che è creata, modellata, ingegnerizzata al fine di favorirne la diffusione e la viralità? E poi pensiamo davvero che un hashtag possa influenzare chi è saldamente ancorato alle proprie granitiche e immutabili convinzioni ideologiche? Se c’è una cosa che appare fin troppo chiara è che sui social quasi nessuno è interessato o disposto a mettere in discussione la propria posizione rispetto a determinati argomenti. Nemmeno di fronte a prove inconfutabili.
La diffusione mirata di informazioni false persegue dunque uno scopo che va ben oltre l’intento di modellare la nostra visione del mondo attraverso false narrazioni, bensì consiste nell’iniettare un seme persistente di scetticismo nei confronti di ogni forma di autorità informativa. In buona sostanza, l’obiettivo non è indurci a credere in qualcosa, ma spingerci a non credere in nulla, demolendo la nostra fiducia nell’esistenza di una verità oggettiva, di una realtà condivisa.
Il perché è presto detto: una società dove la verità è percepita come fluida, relativa o irraggiungibile è una società più facile da manipolare. Se le persone sono indotte a dubitare della validità delle informazioni che ricevono, esse diventano progressivamente più suscettibili alle narrazioni costruite ad arte, che, pur essendo altrettanto prive di fondamento, sono però rassicuranti o confermano i loro pregiudizi. Tutto ciò, alla luce di quel che abbiamo osservato finora, si traduce in una prateria sconfinata di opportunità per sviluppare nuove strategie di engagement che, in nome del denaro, sfruttano le nostre vulnerabilità emotive.
Nel momento stesso in cui la falsa informazione viene lanciata e condivisa, il seme del dubbio viene piantato e il suo scopo, che consiste appunto nell’instillare sfiducia nella verità, viene raggiunto. A quel punto, tutto ciò che segue è pressoché inutile e controproducente. L’atto stesso di contraddire e confutare, smentire e argomentare, o anche solo discutere e ridicolizzare le affermazioni altrui, anziché erodere la solidità della menzogna la rafforza, confermando i bias cognitivi e polarizzando ulteriormente le posizioni.
E mentre ci lasciamo coinvolgere in questa titanica battaglia digitale, scambiando insulti e difendendo strenuamente le nostre posizioni, il traffico sui social impenna, i proventi pubblicitari aumentano e la nostra attenzione viene totalmente assorbita in questo vortice distruttivo, ponendoci alla mercé degli algoritmi di profilazione che lavorano senza sosta. Il risultato? Una montagna di soldi.
In sostanza, la strategia di disseminare il caos attraverso le fake news, per quanto moralmente e socialmente deprecabile, si dimostra una tattica assai lucrativa. Nei social network, governati da questa logica, le dinamiche di conflitto, confusione e ricerca spasmodica di senso si traducono in un flusso continuo di interazioni, che a loro volta si traducono in capitali sonanti. Un macabro gioco dove la perdita di verità e coesione sociale diviene il prezzo da pagare per un affare miliardario.
(continua)
L’immagine che illustra questo contributo è “Man with dog”, di Banksy
Nota sulla proprietà intellettuale
Ogni diritto sui contenuti (a titolo esemplificativo, documenti, segni distintivi, immagini, files, architettura del sito) è riservato ai sensi della normativa vigente. La riproduzione anche parziale, in qualsiasi forma, ad esempio, ma non esclusivamente, del testo, sia in forma testuale che come immagine e delle immagini, se non esplicitamente autorizzata, sarà perseguita a termini di legge nei confronti di soggetti singoli e/o realtà aziendali.Devi specificare un indirizzo di email valido per aggiungere un commento
24 commenti su “Gli Strumenti Siamo Noi (Seconda Parte)”
Se la merce siamo noi e non c’è dubbio che sia così, come possiamo farci un opinione senza lasciare all’ algoritmo il nostro preconcetto o semplice dubbio? Possiamo depistarlo ? La consapevolezza di essere manipolati e manipolabili così semplicemente è fastidiosa e stridente come la sabbia sotto i denti. Grazie di questa analisi tanto lucida quanto disperante almeno per me.
Fiorenza, le sue sono osservazioni e domande molto centrate. “Se non stai pagando per un prodotto, allora il prodotto sei tu” è, oltre che una triste e inquietante verità, un punto centrale del discorso che ho tentato di sviluppare.
Ingannare gli algoritmi, in una certa misura, è possibile, se c’è consapevolezza di come agiscono. Ma un tentativo di emancipazione deve passare da una riflessione più ampia. Considerarci solo vittime del sistema non giova a nessuno, non cambierà le cose. Certo, vittime lo siamo. Ma non dobbiamo cadere nel tranello dell’autoassoluzione, altrimenti rischiamo di guardare al problema solo da un punto di vista.
La invito a leggere la terza e ultima parte dell’articolo, che sarà online tra non molto. La ringrazio per il suo commento. Spero di ritrovarla tra i commenti per continuare il ragionamento. Grazie ancora, Aldo.
Complimenti e grazie. Analisi dettagliata, competente e lucida. Purtroppo inquietante.
Quali strumenti abbiamo per proteggerci e proteggere la verità?
Ma si lucra a prescindere?
Cioè, è possibile lucrare anche creando un moltiplicatore di “true news” così da mantenere l’engagement, aumentare le interazioni, far contento l’algoritmo?
Ma dove siamo finiti!
Ciao Silvia, grazie mille a te per essere intervenuta. Proverei a risponderti qui, ma molte delle cose che avrei da dire sono già nella terza e ultima parte dell’articolo. Non ho soluzioni pronte per l’uso, ovviamente. Nessuno le ha. Ma su molte cose – soprattutto rispetto alla tua ultima osservazione sulle “true news” – si può provare a ragionare, ad iniziare un percorso. Grazie ancora. A presto.
Temo di essere la conferma di quanto ho letto.
Spero di riuscire a mantenere un margine di autonomia critica.
Morale: sono contenta della mia età che non mi esporrà più a lungo alle insidie degli algoritmi.
Grazie.
Grazie Nadia per il suo commento, che mi ha molto colpito. Torni a leggere la terza parte, che sarà pronta a breve. Ci tengo molto.
Disquieting to the nth degree
Profoundly unsettling
Inquietantissimo
Dovrebbe leggere quello che ho scartato, Daniela 😉
Grazie!
Grazie a lei per il tempo dedicato alla lettura.
Ottimo. Attendiamo la terza parte.
Grazie Doxa. Sto sistemando le ultime cose, dovrebbe essere pubblicata a breve.
Molto molto interessante. Grazie
Grazie, lei è molto gentile.
Molto molto interessante. Ottimo.
Grazie a lei, Vittorio.
Aldo, seconda parte interessantissima, grazie. Dal quadro che fai vien fuori che senza saperlo abbiamo ceduto il nostro cervello, qualcuno adesso lo possiede e manipola, qualcuno pensa per noi. Noi oramai menti dubbiose, speso con poche idee, ma confuse, poi furbescamente pilotate.
Societa’ allo sbando, incapaci di orientarsi, individui che vanno a votare e fanno scelte che risultano drammatiche per le sorti di tutti.
Penso in particolare a noi, qui in America, dove nonostante il nostro ex presidente collezioni un processo criminale dopo l’altro, condannato per molestie sessuali, frode etc (eppure Clinton e’ caduto per aver solo mentito sulla tresca con Monica), ecco quest’uomo oggi nei sondaggi e’ avanti a Biden.
Il 6 gennaio non ha scalfito le menti, T. consegnato alla storia come un individuo papabile, sdoganata e ammessa la menzogna. Cosa di per se impensabile solo 10 anni fa, almeno per chi conosce un po’ la storia degli Stati Uniti.
il problema però non esiste solo in America, penso anche ai tutti leader populisti europei e le loro campagne elettorali, le trappole, le menzogne. Il Berlusconismo, I penta stellato in Italia per esempio.
Ne concludo che hanno fatto di noi delle pecore.
Allora l’unica domanda che mi pongo, così a pelle, e’ come si esce da questo ingranaggio? Se e’ ancora possibile.
Fa male, fa paura sentire di essere in qualche misura parte di questo sistema di idee, parte di questo meccanismo perverso, complici ignari spesso di tante azioni.
Aspetto la terza parte, ancora grazie. letture interessantissime.
E grazie ancora una volta a te, Masha, per i tuoi commenti, come al solito molto interessanti e pertinenti. Ti aspetto nella terza parte, dove magari riusciremo insieme a tirare le somme. A presto e grazie ancora.
Ottimo
Grazie