Shoshana Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, trad. Paolo Bassotti, Luiss University Press, Roma, 2019
L’oggetto di indagine di Shoshana Zuboff, nel poderoso The Age of Surveillance Capitalism, non è semplicemente la storia di un’innovazione tecnologica o l’ennesima analisi del potere delle multinazionali digitali. È la mappa di un territorio nuovo, quasi carsico, in cui la logica del profitto si è fusa con la capacità di penetrare la costituzione stessa della nostra mente, traducendo in valore economico non più solo la nostra attenzione o il nostro tempo, bensì la struttura intima delle nostre inclinazioni, dei nostri desideri, delle nostre paure. Nelle oltre settecento pagine fitte di argomentazioni e dettagli, Zuboff mostra come questa nuova forma di controllo, che lei chiama “capitalismo della sorveglianza”, si spinga ben oltre la capacità persuasiva dei media tradizionali. Non si limita a influenzarci con parole e immagini: scava dentro il nostro stesso funzionamento psicologico, costruendo un modello predittivo di noi stessi talmente accurato da includere tratti che spesso nemmeno noi riconosciamo come parte della nostra identità. E questo modello viene venduto, a caro prezzo, a inserzionisti che così ottengono una garanzia quasi assoluta di efficacia, poiché la pubblicità che ci raggiunge è calibrata esattamente sul nostro profilo mentale e sul punto preciso in cui i nostri pensieri e desideri si trovano in quel momento.
È questa, per Zuboff, la trasformazione epocale: la moneta di scambio non è più la potenza industriale o il dominio delle tecnologie produttive, nemmeno la mera disponibilità di dati elettronici. È l’informazione personale, estratta sistematicamente da ogni interazione digitale. In questa logica, l’utente non è più il consumatore: il consumatore è l’inserzionista, colui che acquista i pacchetti di informazione sui nostri comportamenti; noi, gli utenti, siamo il prodotto.
La genesi di questa mutazione ha un momento chiave. Google, nei primi anni, si guadagna un’ottima reputazione per la qualità dei risultati di ricerca, ma non ha ancora trovato un modello stabile per monetizzare questa qualità. Il metodo standard di generare ricavi in un motore di ricerca è vendere pubblicità legata a parole chiave: un utente inserisce un termine, l’algoritmo fa apparire inserzioni pertinenti. Il limite di questo sistema è evidente: i termini di ricerca sono volatili, contingenti, non sempre rivelano chi sia davvero l’utente o cosa desideri in profondità. Possono riflettere un interesse momentaneo, casuale, non rappresentativo.
La svolta arriva all’indomani dello scoppio della bolla dot-com nei primi anni Duemila, quando Google rischia seriamente di soccombere. È in quel frangente che, secondo Zuboff, avviene la scoperta decisiva: ciò che lei chiama “surplus comportamentale”. Un concetto che germina in ricerche già avviate all’interno dell’azienda e che viene spesso attribuito a Amit Patel, giovane laureato di Stanford appassionato di data mining. L’intuizione è che le tracce digitali lasciate inevitabilmente da ogni navigazione – i cosiddetti digital trails – contengono informazioni profonde e stabili sulla persona: gusti, repulsioni, aspirazioni.
Questa miniera di dati, in un primo momento, serve a migliorare ulteriormente la qualità dei risultati di ricerca. Ma nel clima post-crisi, il paradigma cambia: quelle stesse informazioni diventano materia prima per prevedere e quindi orientare il comportamento degli utenti. Non più solo pubblicità associata a parole chiave generiche, ma offerte mirate all’individuo specifico, in quanto individuo unico. L’efficacia cresce in modo esponenziale, perché l’inserzione non è solo “pertinente” rispetto a un termine cercato: è cucita addosso alla persona in base al profilo che emerge dal suo surplus comportamentale. Da allora, sostiene Zuboff, Google ha continuato a perfezionare questo meccanismo, fino a diventare una delle realtà più ricche e potenti del pianeta.
L’argomentazione centrale dell’autrice si concentra su ciò che definisce la perdita del “diritto al tempo futuro”. Un concetto etico prima ancora che politico. Questo diritto è la possibilità per ciascuno di proiettarsi liberamente in avanti, di dire “sarò”, “diventerò”, “andrò” senza che tale proiezione sia già anticipata, catturata e imbrigliata da un calcolo esterno. Zuboff sostiene che, nel momento in cui si naviga lasciando tracce che Google raccoglie e interpreta, si cede a quest’ultimo la capacità di modellare quella proiezione. L’utente, intrappolato nel cerchio delle applicazioni e degli annunci mirati, perde l’autonomia di immaginare e costruire il proprio avvenire. La dignità stessa dell’agire libero si dissolve quando il futuro è già previsto – e, in un certo senso, prescritto – da un algoritmo.
Questa capacità predittiva non è materia di opinione: l’evidenza sta nel fiume di denaro pubblicitario che alimenta Google. Resta però da spiegare il “come” di tale efficacia. Zuboff osserva che non si tratta di prevedere il singolo individuo isolato, bensì di individuare pattern statistici emergenti da milioni di comportamenti analoghi. L’algoritmo riconosce le somiglianze e, inserendo ciascun utente nel gruppo pertinente, ne deduce le mosse successive con margini di errore minimi.
In teoria, sfuggire a questa presa sarebbe possibile comportandosi in modo del tutto peculiare, producendo tracce digitali così uniche da non trovare corrispondenze nel database. In pratica, data l’enorme mole di dati accumulata, la speranza è illusoria: per quanto insolito possa sembrare un comportamento, quasi sempre esistono altri utenti che agiscono nello stesso modo, formando comunque un cluster rilevabile.
A questo punto la riflessione tocca la vecchia querelle filosofica tra libero arbitrio e determinismo. Se il mio comportamento può essere previsto con alta precisione, la mia vita è forse già determinata? L’unico margine di scampo, per chi vuole opporsi all’idea deterministica, sarebbe non lasciare tracce fin dall’inizio. Ma ciò equivarrebbe a un’uscita completa dal mondo digitale – un’opzione che per la quasi totalità degli abitanti del pianeta non è praticabile.
Zuboff, pur denunciando con durezza la pratica di Google, propone una via politica: leggi, regolamenti e meccanismi di controllo democratico sull’operato delle corporation. Una proposta che, nel suo impianto, potrebbe – e forse dovrebbe – essere estesa anche ai poteri pubblici, potenzialmente attratti dall’uso delle stesse tecniche per il governo delle popolazioni. In quel caso, l’incubo orwelliano si realizzerebbe nella sua forma più compiuta: il controllo politico radicato direttamente nella mente delle persone.
Ma il nodo non è solo politico. È anche, e forse soprattutto, metafisico. In un contesto in cui il comportamento di ciascuno è modellizzabile e prevedibile, che cosa significa essere liberi? Una risposta classica sostiene che la libertà risiede nella consapevolezza soggettiva di non essere costretti dall’esterno e nella possibilità di agire altrimenti. Anche in un mondo dominato da forze esterne, la percezione interna di poter scegliere resta intatta. Qualcuno potrebbe addirittura considerare il problema del libero arbitrio un falso problema, un’illusione: come nella scacchiera, dove un tempo si credeva in possibilità illimitate di mosse, salvo scoprire che ogni combinazione è finita e calcolabile da una macchina, così nella vita le possibilità non sono infinite. Eppure, il fatto che siano finite non annulla la responsabilità individuale, né trasforma le persone in automi.
Forse, suggerisce implicitamente l’analisi di Zuboff, il punto è ridefinire la nozione stessa di libertà, riconoscendo i vincoli e operando all’interno di essi per costruire il miglior ambiente possibile per il proprio progetto di vita. In questo senso, la posta in gioco è duplice: ripensare la libertà alla luce delle nuove tecnologie e impedire che queste ultime vengano usate per ridurre gli individui a meri vettori di dati.
Il “capitalismo della sorveglianza” descritto nel libro è una forma di potere che agisce a un livello profondo, quello delle esperienze soggettive e delle preferenze intime. La domanda aperta è come tradurre in pratica l’auspicata regolamentazione democratica. C’è poi una dimensione ancora inesplorata: quella ermeneutica. Gli algoritmi non si limitano a registrare le tracce digitali; le interpretano, costruendo un senso a partire da esse. Quale sia la natura di questa “interpretazione” algoritmica, se e in che misura rientri in un vero processo ermeneutico, è questione che resta da indagare.
Alla fine, l’analisi di Zuboff ci consegna una diagnosi chiara: l’attuale uso delle tecnologie predittive è un Eldorado per gli inserzionisti, non per noi. Eppure, non c’è nulla che impedisca di usare la stessa potenza di calcolo e di analisi per fini diversi, orientati al benessere degli utenti piuttosto che all’accumulazione di profitto da parte delle grandi piattaforme. Perché ciò accada, è indispensabile smettere di accettare passivamente il ruolo di prodotto e riprendere possesso della nostra capacità di agire.