Ad inizio 2014 il centro di ricerche psicometriche dell’Università di Cambridge dispone online su Facebook di una app che raccoglie dati a scopi di ricerca. Questa app ha dei permessi particolari: se l’utente X la scarica, possono essere raccolti non solo i dati di X, ma anche tutti i dati condivisi dagli amici di X sul social network. Un’azienda non molto famosa, e non ancora chiamata Cambridge Analytica, si mette in contatto col centro di ricerche per poter accedere a questi dati. Si tratta di un’azienda che sta entrando nel business della data analysis e della pubblicità mirata applicata alle campagne elettorali, in particolare in America e Regno Unito, e per questo sta cercando di creare un grosso database dell’elettorato americano e di quello inglese.

Il centro universitario rifiuta la collaborazione, ma uno dei professori di Cambridge, Aleksandr Kogan, accetta individualmente l’accordo propostogli dal direttore della sezione ricerca di Cambridge Analytica, Cristopher Wilye. Secondo il Times il professor Kogan riceve 800mila$ per sviluppare un’altra app che funzioni sulla base dello stesso principio. In un paio di mesi (tra giugno e luglio 2014) 270mila persone scaricano la app, che raccoglie dati su di loro e sui loro amici, arrivando quindi a registrare dati di più di 80 milioni di utenti. Alla fine del 2014 Facebook cancellerà questo genere di permessi di accesso anche ai dati degli amici, ma intanto il database è stato messo in piedi.

Sin dal 2013 il CEO di Cambridge Analytica, Alexander Nix, è in contatto con Stephen Bannon, direttore di Breitbart, sito di riferimento dell’alt-right americana. Bannon sta cercando di portare la sua battaglia culturale fin dentro la campagna elettorale a stelle e strisce, e cerca strumenti per combattere questa battaglia anche sui social network. È lo stesso Bannon a far incontrare Nix e Wilye con il magnate americano Robert Mercer, uno degli uomini più ricchi del mondo, deciso a diventare un punto di riferimento della destra americana. Negli stessi mesi in cui la app di Kogan è all’opera sui profili di centinaia di migliaia di utenti, Bannon, Nix e Wilye convincono Mercer a finanziare il loro progetto: 15 milioni di dollari.

È a questo punto che Cambridge Analytica (CA) prende questo nome e installa la sua sede legale a Cambridge, col preciso intento di darsi un’immagine autorevole. I primi test vengono fatti sulle elezioni di mid-term americane in estate-autunno 2014. Nel 2015 il candidato alle primarie democratiche Ted Cruz diventa cliente di CA. Nel 2016 Nix convince anche i responsabili della campagna di Trump ad utilizzare i loro servizi.

Nel 2015 l’azienda di Zuckerberg viene a sapere della collaborazione tra Kogan e CA, chiede perciò di cancellare tutti i dati ottenuti, appoggiandosi legalmente sul fatto che la collaborazione con Kogan era puramente a scopo di ricerca. Facebook decide comunque di tenere nascosto l’accaduto. A cavallo delle elezioni americane del 2016, e della campagna sulla Brexit, la stampa mondiale parla diffusamente di CA, ma è soltanto quest’anno con le dichiarazioni di due “talpe” (lo stesso Wilye e Sandy Parakilas, un ex dipendente di Facebook) che la notizia esplode sulle prime pagine di tutto il mondo grazie in particolare al Guardian ed al NY Times.

Un normalità eclatante

L’aspetto più interessante di questa inchiesta sta dietro al sensazionalismo e oltre la narrazione di eccezionalità: è il funzionamento normale di Facebook, del suo modello di business e di produzione/analisi dei dati. Sandy Parakilas è l’ex manager delle operazioni di piattaforma di Facebook tra il 2011 ed il 2012, responsabile in particolare delle violazioni delle policy tra Facebook e terze parti, come nel caso dell’accordo tra Facebook e Kogan, che è stato probabilmente violato con lo scambio di dati tra Kogan e CA. Ciò che Parakilas dichiara nella sua intervista al Guardian e nelle sue dichiarazioni ad una commissione parlamentare inglese è che quanto fatto da CA era assolutamente usuale ed è avvenuto con migliaia di app. Facebook non ha mai avuto un sistema per verificare concretamente l’uso dei dati fatto dalle aziende, e lo stesso Parakilas ha “sempre supposto che ci fosse un qualche tipo di mercato nero dei dati”. Nessun audit è stato mai richiesto ad aziende che avevano stipulato accordi, e anzi la moltiplicazione di app è stata incentivata dalla possibilità di accesso a queste informazioni. Quando Parakilas chiedeva ai suoi superiori di approfondire il problema delle violazioni, veniva stoppato perché “Facebook era in una posizione legale migliore se non avesse saputo di eventuali abusi” – ed in generale il ban (la radiazione dal social network) contro terze parti è una misura che è stata usata pochissime volte.

Insomma, quella che emerge è una situazione in cui almeno fino al 2014 Facebook si è espanso anche grazie alla vendita non esplicitamente dichiarata dei dati accumulati sulla piattaforma. Il modello di business della società si basava sulla proliferazione delle app, sulla creazione di uno spazio che contenesse la maggior parte della vita virtuale degli utenti, e alla big-F andavano (e continuano ad andare) il 30% di ogni pagamento fatto attraverso software di terze parti. In gioco c’è il modo di distribuire i dati, e attorno a questo i dirigenti di Facebook tentavano (e continuano a tentare) di definire dei modelli economici e politici per una piattaforma globale, unica del suo tipo nella storia.

Fare una genealogia dei differenti sistemi di organizzazione della piattaforma è un obiettivo ben oltre la portata di questo articolo, ma sicuramente con l’interruzione dei permessi speciali alla fine del 2014 qualcosa cambia: il mercato dei dati degli utenti viene marginalizzato, e il core-business si sposta probabilmente sul mercato pubblicitario mirato.

Un aspetto emerso dall’intervista di Wilye è stato poco approfondito: degli 800mila dollari investiti nell’app del prof. Kogan, neanche un centesimo è andato all’accademico (che come ricompensa si è solo tenuto una copia del database), invece la maggior parte di questi soldi sono stati investiti nel ricompensare (1-2 dollari) gli utenti che scaricavano l’app e partecipavano alla ricerca. È grazie a questo pagamento se in solo un mese CA ha ottenuto un database così grande. Si intravede in meccanismi come questo la possibilità che Facebook diventi un mercato delle informazioni, in cui addirittura gli utenti possono direttamente accedere a parte della ricchezza estratta. Ogni analisi delle scelte di Zuckerberg deve tenere in conto questa evoluzione possibile (e oggi resa più improbabile) del significato di “utente” della piattaforma.

La privacy come modello di accumulazione e come paradigma di controllo

In questa situazione, cos’è esattamente la privacy? Ci sono due aspetti del problema. Da un primo punto di vista la privacy è un modo di gestione dei dati e della loro valorizzazione. Un regime di attenzione alla privacy tende a creare un monopolio della raccolta dati da parte di chi detiene la piattaforma, o per meglio dire a disincentivare l’uso della piattaforma come luogo di scambio dei dati, favorendo l’altra funzione centrale dei social network: la possibilità di raggiungere gli utenti in maniera mirata.

Il secondo aspetto è quello della capacità di controllo degli utenti, una funzione storicamente egemonizzata dagli stati nazione, con cui i big del web stanno chiaramente entrando in concorrenza, come evidenziato da più parti. La privacy è da questo punto di vista uno dei piani su cui si misurano i rapporti di forza tra strutture poliziesche e dei servizi da una parte, e gestori delle piattaforme dall’altra. Ovviamente questo non significa garantire che un’utente abbia il controllo indipendente dei dati che riversa sul web. La questione della privacy più che una forma di tutela è una regolazione dei meccanismi di governo dello spazio virtuale.

Una democrazia in balia dell’algoritmo?

Lo “scandalo” Cambridge Analytica ha sollevato uno “psicodramma” democratico, diverse testate giornalistiche e alcuni governi, in particolare quello britannico e quello americano, hanno chiesto a Zuckerberg di riferire su quanto avvenuto. Il tutto si è concretizzato nelle deposizioni delle “talpe” Wilye e Parakilas al parlamento inglese, ed in quella di Zuckerberg di fronte al congresso USA, nonché nel cambiamento di alcune delle policy del social network.

Ma davvero la democrazia rappresentativa è stata controllata, pilotata o hackerata? Questa domanda può avere una risposta superficiale, un semplice “no”, ma anche aprire a domande più interessanti e profonde: cosa significa “controllare” o “pilotare” un processo democratico?

Va totalmente sfatata la narrazione secondo cui alcuni eventi elettorali eclatanti degli ultimi tre anni (in particolare la Brexit e l’elezione di Trump) possano essere spiegati attraverso l’uso di particolari strumenti o tecniche di analisi dati. Nonostante questo le tecniche stesse ci dicono qualcosa sull’evoluzione dei processi politici in atto, perché ogni tecnica è l’unione di strumenti (formali o materiali) e di “modi d’utilizzo”, questi ultimi espressione di specifiche griglie di lettura del reale, quanto di più lontano ci sia da una presunta neutralità degli algoritmi.

Le tecniche di campagna elettorale sui social network funzionano in primo luogo con un profiling degli utenti, cioè assegnando ad ogni utente alcuni valori in specifiche categorie, sulla base dei dati condivisi. Alcune ovvie categorie di profiling sono quelle demografiche: ad esempio per la campagna di Trump sono state diffuse notizie sulla base del distretto di appartenenza degli utenti – come per gli abitanti di Little Haiti, bersagliati con notizie sul fallimento della Clinton Foundation nel fornire aiuti post-terremoto ad Haiti.

Cambridge Analytica ha impostato il suo brand sull’uso di un altro tipo di categorie, quelle psicometriche. La psicometria è lo studio della misura in campo psicologico, in particolare CA utilizza un metodo risalente agli anni ’80 che si propone di caratterizzare ogni individuo in base a 5 tratti della personalità: openness – apertura, conscientiousness – coscienziosità, extroversion – estroversione, agreablenness – disponibilità alla cooperazione, neuroticism – propensione all’ira; questi tratti vengono anche indicati con il loro acronimo, OCEAN. Grazie ai dati raccolti su Facebook, per ogni utente possono essere assegnati dei valori agli OCEAN – e di conseguenza si possono scegliere in maniera mirata, utente per utente, i messaggi con la maggior influenza. Ad oggi non è chiaro se le tecniche psicometriche siano state usate per la campagna di Trump, mentre è quasi certo il loro utilizzo nella campagna per le primarie di Ted Cruz, terminata con il ritiro dello stesso dalla corsa.

Dalle parole di Wilye è evidente che i vertici di CA propagandavano con convinzione una fiducia assoluta nei metodi psicometrici.

“Nella vita se vai in un luogo e ti piace qualcosa mi stai dando un indizio su chi sei come persona

[…] al lavoro i tuoi colleghi vedono un solo lato di te, i tuoi amici vedono un solo lato di te, ma un computer vede tutti i tuoi lati e quindi possiamo essere migliori degli esseri umani nel predire il tuo comportamento.”

Lo stesso Wilye descrive quello che facevano come un articolato inganno:

“hanno consapevolmente rappresentato in maniera distorta la verità, in modo che fosse funzionale ai loro obiettivi.”

In realtà ciò che Wilye descrive è un normale meccanismo di propaganda, cioè l’adattamento del messaggio al proprio ascoltatore, con la novità che le tecniche di analisi dati permettono di farlo in maniera più mirata. Come in ogni meccanismo di propaganda, inoltre, il messaggio politico innerva le stesse tecniche utilizzate. È insensato parlare dei dispositivi algoritmici in maniera separata dai messaggi che propagandano – contrariamente a quanto credono i dirigenti di CA, alcune tecniche funzionano proprio perché associate a specifici messaggi.

Contro ad una visione neutrale per cui una “tecnica” viene applicata su alcuni “dati grezzi” ottenuti sui social network, si deve ribaltare il punto di vista dicendo che non esiste nessun dato grezzo, che la stessa raccolta dei dati è parte della comunicazione. I messaggi politici proposti agli utenti dagli algoritmi sono il centro dell’ipotesi trumpista, ciò che permette di misurare l’efficacia degli algoritmi utilizzati, e non una variabile tra le altre. Lo stesso modello degli OCEAN è chiaramente una teoria psicologica e politica dei soggetti, un terreno di battaglia in sé, e non un retroterra neutrale su cui è possibile costruire qualsiasi ipotesi elettorale.

Ogni news è una fake news

Dietro ai titoli dei giornali, alle testimonianze in parlamento, ai crolli in borsa prontamente recuperati dopo pochi giorni, è difficile farsi un’idea di cosa sia realmente accaduto attorno alla vicenda Cambridge Analytica e più in generale alle accuse di irregolarità nelle pratiche di Facebook. Forse perché mai come in questo caso è la gestione dell’informazione stessa ad essere il campo di battaglia. Non si può approfondire il racconto di questi eventi senza tenere in conto che tra i big del web ed i grandi gruppi editoriali è in atto uno scontro per la possibilità di definire cos’è una news: se fino a pochi anni fa i giornali avevano un controllo molto forte sulle categorie di “vero”, “autorevole” e “accettabile”, l’esplosione dei social network ha cambiato le carte in tavola.

Sono state utilizzate in particolare due retoriche per cercare di recuperare l’egemonia perduta dalle strutture classiche dell’ecosistema informativo: quella delle fake news e quella sulla privacy non rispettata. In entrambi i casi l’elezione di Trump e la Brexit hanno costituito dei punti alti del dibattito, le fake news e le violazioni sono a turno diventate le responsabili di questi fatti inaspettati. Ma è chiaro che né le false notizie né le violazioni della privacy sono questioni nate da poco, sono vecchie come la comunicazione, o almeno datano al diciannovesimo secolo. Ad essere cambiati sono i grandi gruppi di potere in grado di disporre con grande impatto di questi dispositivi. Diventa in tal senso più chiaro che il Guardian ed il NY Times, ed i gruppi editoriali che li sostengono, stanno giocando una partita politica, parallela a quella di Zuckerberg e dei vari governi nazionali.

Se capire le evoluzioni di questo scontro è compito molto difficile, quello che ci sembra chiaro è che il terreno della battaglia è direttamente nel campo delle narrazioni e del “vero”, in gioco c’è non soltanto la possibilità di decretare quali fatti siano degni di essere raccontati e come, ma anche di determinare una teoria dei soggetti che innerva i linguaggi. Storicamente i mass media hanno portato la voce di un “senso comune” performante, il “grande altro” del capitalismo (concetto sviluppato da Mark Fisher [1]); a questo oggi si aggiunge la possibilità di innestare direttamente negli algoritmi una teoria dei soggetti. Per fare un esempio banale, quando un’intelligenza artificiale è smascherata come razzista o sessista, non si tratta semplicemente di un bias collettivo “registrato” dall’algoritmo, ma di un meccanismo che riproduce e rende concreti lo stesso razzismo e lo stesso sessismo di cui si nutre, proprio come le narrazioni paternaliste e colonialiste dei giornali.

Oltre ad essere un terreno di battaglia, gli algoritmi diventano sempre di più l’oggetto stesso dello scontro politico in atto.

 

Note

[1] M. Fisher, Realismo capitalista, traduzione di Valerio Mattioli, Nero Editions, 2017.

 

Fonte immagine: Jim Watson/AFP/Getty Images

Print Friendly, PDF & Email