Valori divergenti

Tra filter bubbles e big data

Mazzoleni1977_7533
Libera Mazzolenti, Luca, II – 49, 1977, fotografia con intervento tipografico e grafico, cm 30x40,5

Bolle da filtro

Mentre i media classici perdono gradualmente il loro potere di decidere a quali punti di vista veniamo esposti, nuovi filtri appaiono tra noi e le informazioni che cerchiamo in rete. I suggerimenti e i risultati che appariranno prima nella tua prossima ricerca su Google, i post che visualizzerai collegandoti a Facebook, le pubblicità che appariranno nella tua posta elettronica sono tutti determinati dal tuo comportamento online in base al quale degli algoritmi di personalizzazione ti presentano i contenuti che considerano interessanti per te. Suggeritori (recommender systems), aggregatori, motori di ricerca, algoritmi di feed ranking fanno parte dei software di personalizzazione che rischiano di privare l’utente della diversità di contenuti e di punti di vista racchiudendolo in una artificiale e inconsapevole bolla di conferme. Con il termine filter bubble Pariser (2011) ha indicato il fenomeno in cui gli algoritmi di personalizzazione usati dai motori di ricerca, dalle piattaforme dei social network ed altri grandi intermediari della rete riducono la diversità dell’informazione dando la precedenza ad alcuni risultati rispetto ad altri. Questi algoritmi occultati influiscono negativamente sulla possibilità di accesso a punti di vista diversi dal nostro e sulla possibilità di scoprire nuove combinazioni di eventi.

Il lavoro compiuto dagli algoritmi di personalizzazione amplifica una tendenza già presente nell’essere umano di preferire le conferme alle confutazioni, in un certo senso lo sfrutta. Rimanendo chiusi in una bolla di informazioni di facile comprensione, che non presenta altro che conferme alle nostre idee, consolidando artificialmente le nostre convinzioni, irrigidendo le nostre menti tramite una illusione di consenso. Ciò che ne risente è la nostra plasticità, quella capacità che ci consente di cambiare idea e di adattarci a situazioni inaspettate. La distanza che ci separa dall’altro è aumentata e artificialmente consolidata dall’illusione della condivisione e dello scambio. Pur essendo consapevoli dell’esistenza di questi algoritmi è difficile convivere con loro. Ultimamente, spendo sempre più tempo ad educare questi algoritmi di personalizzazione cercando invano di migliorare i risultati delle ricerche ed i news feed. Il problema è che falliscono nel loro tentativo di interpretare ciò che voglio, proponendo risultati più rilevanti per ricerche che ho fatto in passato rispetto a quanto lo siano per la ricerca attuale. È possibile che abbia voglia di guardare un video di gatti la sera, ma poi la mattina seguente non voglio che il mio motore di ricerca mi proponga sempre gatti anche se faccio ricerche sulla filosofia presocratica o sulla fisica quantistica.

Un esempio che dimostra la potenza che può avere un software di personalizzazione è quello di quando nel 2014 le proteste seguite all’omicidio di Michel Brown a Ferguson da parte di un agente della polizia del Missouri dominavano il panorama di Twitter. Allo stesso tempo le pagine degli utenti Facebook erano invase dai video di persone che si versavano secchi d’acqua ghiacciata in testa. Più recentemente, un fenomeno simile è stato riscontrato nel software Preferred Audience, uno strumento che permette di connettere le pagine Facebook con centinaia di migliaia di diversi pubblici di nicchia… tranne il movimento Black Lives Matter, a quanto pare. In risposta alle proteste degli attivisti, Facebook ha fatto sapere che l’algoritmo genera automaticamente le sue etichette e non si può sapere con certezza perché alcuni argomenti siano presenti ed altri no. Il problema potrebbe essere dato dal fatto che Facebook voglia associare una sensazione di piacevolezza alla sua navigazione mostrando ai propri utenti contenuti che ritiene di loro gradimento e nascondendogli ciò che ritiene possa turbarli o renderli infelici. Ne conseguirebbe che quando alcuni utenti bloccano o nascondono certi contenuti dalla loro bacheca, forse perché li trovano violenti o spiacevoli, questo incide negativamente sulla visibilità generale che avranno altri contenuti successivi sullo stesso argomento. (Mannon, 2016)

Difesa personale (Evitare)

Usufruendo il più possibile di tutte le raccomandazioni che vengono generate e proposte si può ridurre l’effetto dei filtri di personalizzazione stessi 

Una strategia per limitare l’impatto negativo di questi algoritmi è quella di usare gli strumenti che rendono più difficoltoso il tracciamento della nostra navigazione o sabotare in altri modi il lavoro occulto dei software responsabili della bolla. Questo si può fare cercando di nascondere le proprie impronte digitali cancellando la propria web history, cancellando i cookies, usando l’opzione della navigazione privata, usando strumenti come il Tor browser e un VPN (virtual private network), usando motori di ricerca come Startpage o DuckDuckGo, usando programmi per bloccare le pubblicità come l’estensione AdBlockPlus e quelli per bloccare gli script come NoScript. Inoltre si possono nascondere le proprie tracce con ricerche arbitrarie e post falsi e fuorvianti, smettendo completamente di usare il tasto mi piace. Qualcuno propone anche di utilizzare la strategia opposta: usufruendo il più possibile di tutte le raccomandazioni che vengono generate e proposte si può ridurre l’effetto dei filtri di personalizzazione stessi (Nguyen, 2014) usando indiscriminatamente il tasto mi piace su tutti i post dei nostri amici e degli amici dei nostri amici, seguendo milioni di pagine Twitter, eseguendo tutte le ricerche suggerite da Google, utilizzando tutti i suggerimenti del vostro programma di scrittura etc. Questo tipo di strategia porta all’allargamento della bolla grazie ad un rilassamento indotto nei filtri. Ciò può risultare in ricerche interminabili tra risultati simili e completamente irrilevanti e trovare un’informazione interessante rimane come trovare il famoso ago nel pagliaio. Per ottenere effetti di serendipity nella navigazione i risultati delle ricerche devono essere rilevanti ai nostri interessi ed allo stesso tempo abbastanza distanti dai nostri standard da rappresentare una novità, una deviazione, una anomalia.

Si può essere dell’opinione che una riduzione del volume delle comunicazioni online sia auspicabile e che un ritorno ad un uso più sporadico dei mezzi di comunicazione porti con sé una produzione più complessa e ponderata di informazioni ed una fruizione più concentrata e riflessiva. Tuttavia, un rifiuto completo è una strategia che pochi si possono permettere, rischia di essere solo una utopica fuga all’indietro macchiata di nostalgia passatista e romantica, che rischia di isolare maggiormente le persone tra loro.

Difesa personale (Riconoscere)

L’area di applicazione dei software di personalizzazione non si limita all’uso dei motori di ricerca e dei social network, i robot che analizzano i nostri comportamenti sfruttando dati telematici per poterci dare consigli personalizzati sono moltissimi 

Tutte queste strategie possono essere più o meno efficaci nell’evitare il tracciamento da parte dei governi e delle altre innumerevoli aziende private (multinazionali e non), ma possono risultare tediose per molti e risultano in un mancato uso di tutte le potenzialità specifiche del mezzo. Un passo avanti, già sottolineato da Pariser (2011), avverrebbe se gli sviluppatori rendessero gli algoritmi di personalizzazione più controllabili dall’utente dotandoli di interfacce trasparenti e accessibili. Esistono vari tentativi di sviluppo di software che mirano a rendere gli utenti più consapevoli delle bolle che si creano intorno a loro, strumenti come Scoopinion o Bobble (Xing, 2014) non promuovono la diversità delle informazioni, ma mostrano all’utente gli effetti dei filtri di personalizzazione e permettono di agire su alcuni parametri. Altri hanno proposto dei siti con sistemi che consentono ai propri utenti l’esposizione ad una maggiore diversità di opinioni come VoiSieteQui ConsiderIt.

L’area di applicazione dei software di personalizzazione non si limita all’uso dei motori di ricerca e dei social network, i robot che analizzano i nostri comportamenti sfruttando dati telematici per poterci dare consigli personalizzati sono moltissimi.

Capirsi con le macchine

C’è un grosso sbilanciamento tra la tolleranza che abbiamo nei confronti di informazioni che confermano le nostre aspettative rispetto a tutte le altre 

Con l’avvento della rete delle cose o Internet Of Things (Rifkin, 2014) i filtri di personalizzazione collezioneranno dati da ogni nostro comportamento per suggerirci informazioni sempre più su misura. La marea di dati che creiamo richiede algoritmi che possano filtrarli e renderli intellegibili e sfruttabili per chi li possiede. Un problema identificato in questo campo è quello dell’eterogeneità: negli scambi di informazioni che avvengono tra esseri umani tolleriamo una grande eterogeneità nei dati e spesso informazioni importanti sono tratte da sfumature delle infinite variazioni del comportamento sociale. Al contrario di noi, gli algoritmi che analizzano meccanicamente i nostri comportamenti si aspettano dati omogenei e sono poco attenti alle sfumature.

Esiste uno squilibrio insito nel comportamento umano che porta a limitare al minimo le attività che richiedono l’impiego della consapevolezza, del ragionamento, della concentrazione e il sostegno dell’attenzione. C’è un grosso sbilanciamento tra la tolleranza che abbiamo nei confronti di informazioni che confermano le nostre aspettative rispetto a tutte le altre. Elaborare informazioni che confermano le nostre previsioni richiede poco sforzo e consolida i nostri schemi, mentre l’elaborazione di informazioni nuove e inaspettate rappresentano una sfida cognitiva che non sempre siamo pronti ad intraprendere. Se nel primo caso l’affezione positiva è immediata e non problematica, nel secondo caso una affezione positiva si manifesta solo dopo una fase inizialmente negativa. Una informazione è inaspettata perché non siamo stati in grado di prevederla e questo fallimento nell’integrare l’informazione con il resto delle proprie conoscenze e convinzioni porta ad una affezione negativa. Il passaggio da negativo a positivo avviene solo quando l’informazione è resa nuovamente congruente grazie all’acquisizione di nuova conoscenza, quindi solo in seguito ad una crescita. Le esperienze di crescita richiedono energia e tempi lunghi per potersi attuare, gli algoritmi di personalizzazione con il loro continuo priming di informazioni che confermano le tendenze espresse nelle nostre risposte immediate non può che nuocere alla possibilità che questa crescita avvenga.

Per quanto dotati di intelligenza creativa, di capacità di passare rapidamente tra pensiero divergente e pensiero convergente, di apertura all’esperienza, i momenti esplorativi saranno sempre più esigui di quelli familiari. I tempi di reazione alle novità saranno sempre più lenti ed incerti rispetto ai tempi di reazione a qualcosa di noto (o che crediamo di conoscere). Per essere in grado di elaborare una risposta nuova in una situazione inaspettata occorre impiegare un processo creativo e per essere in grado di fare questo dobbiamo essere esposti alla diversità, abituati al cambiamento e portati all’esplorazione. Anche se la conferma viaggia più rapidamente e richiede meno sforzo è l’anomalia a destare interesse ed a permettere l’acquisizione di nuove conoscenze ed è proprio questa anomalia ad esserci preclusa dagli algoritmi di personalizzazione.

L’algoritmo che verrà

Contenuti originali si perdono inseguendo il mainstream delle correnti. Questo aiuta a categorizzare ed a consolidare i nostri profili di consumatori, a creare immagini in cui riconoscersi, ma ciò avviene a spese della plasticità, dell’originalità delle idee 

L’analisi dei big data portata avanti dai nostri assistenti robotici si basa principalmente sull’aggregazione di dati in base alle similitudini. Si tratta di un tipo di analisi basata sulla convergenza e sul consenso, su ciò che gruppi di utenti hanno in comune tra loro tralasciando quindi tutto ciò che potrebbe risultare originale, inaspettato, anomalo, controverso, irrisolto. Contenuti originali si perdono inseguendo il mainstream delle correnti. Questo aiuta a categorizzare ed a consolidare i nostri profili di consumatori, a creare immagini in cui riconoscersi (loghi, miti, spettacolo…), ma ciò avviene a spese della plasticità, dell’originalità delle idee, dell’oggettività, della conoscenza e dello sviluppo della creatività. Evitando l’esposizione a dati supposti come non richiesti si è portati ad irrigidire le proprie convinzioni ed incontrando sempre meno informazioni che possono confutarle o problematizzarle cadiamo vittime del nostro stesso confirmation bias (Nickerson, 1998; Wason e Johnson-Laird, 1972). Calcolare solo i dati convergenti è un metodo inadatto all’attribuzione di valore, anche solo come metodo di prima scrematura automatica. Ciò che dobbiamo imparare a filtrare non sono i punti di vista dissimili ai nostri, le nuove mappe cognitive (Jameson, 1989) dovranno aiutarci a vedere le zone d’ombra insite nelle nostre convinzioni e convenzioni culturali, a favorire varietà e diversità, ci dovranno aiutare ad identificare le onde lunghe del cambiamento.

Non solo dovrebbero portare all’attenzione di un pubblico più ampio la voce delle minoranze garantendo loro una maggior incidenza nel dibattito generale, ma nel farlo non dovrebbero appiattire le loro posizioni evidenziandone solo le voci più condivise. I filtri che ci servirebbero ora sono quelli che possono aiutare ad individuare i contenuti originali, filtrando semmai gli effetti dell’omologazione. All’attenzione per le grandezze basate sulla similitudine e sulla convergenza occorre opporre una nuova attenzione per le grandezze basate sulla differenza e sulla divergenza e trovarne nuove applicazioni non solo in ambiti più o meno ristretti come l’ecologia la psicologia sociale, il management o la psicologia dell’arte. Occorre inventare nuovi algoritmi che ci aiutino ad individuare elementi che si discostano dalle aggregazioni o che formano aggregazioni anomale, ad identificare i contenuti innovativi, problematici, inaspettati, che possano stimolare la nascita di idee e soluzioni nuove: algoritmi orientati ad individuare l’originalità, la differenza, la devianza, la diversità…

Bibliografia:

Jameson, F. (1989). Postmodernism, or the Cultural Logic of Late Capitalism. Trad. it. Il postmodernismo o la logica culturale del tardo capitalismo. Fazi, 2007.

Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of general psychology, 2(2), 175.

Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Trad. it. Il filtro. Quello che internet ci nasconde. Il Saggiatore, 2012.

Rifkin, J. (2014). The zero marginal cost society: the internet of things, the collaborative commons, and the eclipse of capitalism. Macmillan. Trad it. La società a costo marginale zero. L’Internet delle cose, l’ascesa del Commons Collaborativo e l’eclissi del capitalismo. Mondadori.

Wason, P. C., & Johnson-Laird, P. N. (1972). Psychology of reasoning: Structure and content (Vol. 86). Harvard University Press.

Xing, X., Meng, W., Doozan, D., Feamster, N., Lee, W., & Snoeren, A. C. (2014, March). Exposing inconsistent web search results with bobble. In International Conference on Passive and Active Network Measurement (131-140). Springer International Publishing.

Newsletter

Per essere sempre aggiornato iscriviti alla nostra newsletter

    al trattamento dei dati personali ai sensi del Dlg 196/03