La società automatica
Entropia e neghentropia nell’Antropocene
In occasione della lectio d Bernard Stiegler al Macro che si terrà domenica 15 dicembre (dalla 16.00 alle 18.00 Auditorium), pubblichiamo un estratto dal libro La società automatica, edito da Meltemi nella collana Culture radicali (diretta da Gruppo Ippolita). Lunedì 16 dicembre Stiegler terrà un seminario all’Università di Roma3, aula 16 – dalle 10.00 alle 13.00, Dipartimento di Filosofia Comunicazione e Spettacolo (via Ostiense 234). L’evento è promosso dal MACRO – Museo d’Arte Contemporanea Roma in collaborazione con una rete di soggetti attivi nell’innovazione sociale, artistica e tecnologica nella città di Roma: Red Mirror, Basic Income Network – Italia BIN Italia, OperaViva Magazine, ReTer. Partecipano, tra gli altri: Giuseppe Allegri, Fabio Benincasa, Ilaria Bussoni, Roberto Ciccarelli, Daniela Cotimbo, Luigi Corvo, Giorgio de Finis, Dario Gentili, Nicolas Martino, Andrea Masala, Andrea Giacomo Minichini, Teresa Numerico, Iacopo Scali, Nicolò Scarano, Stefano Simoncini, Tiziana Terranova, Agnese Trocchi, Viviana Vacca, Benedetto Vecchi.
La cosa più strana, in questo roboante ritorno della “specie umana” nella storia, è che l’Antropocene fornisce la dimostrazione più clamorosa del fatto che, da un punto di vista ambientale, l’umanità, intesa come un tutto, non esiste.
Christophe Bonneuil e Jean-Baptiste Fressoz
Che cosa è successo tra il 23 giugno e il 23 ottobre 2008
Il 23 giugno 2008, analizzando su “Wired” il modello di affari di Google, Chris Anderson ha mostrato come tutti i servizi offerti da questa impresa – basati su quanto Frédéric Kaplan ha chiamato il capitalismo linguistico1 – siano realizzati senza alcun riferimento a una teoria del linguaggio, quale che sia2. Partendo da ciò, e procedendo con un ragionamento analogo in materia di epidemiologia googleiana, è giunto a postulare in linea di principio che, con ciò che chiamiamo oggi big data3, costituiti da miliardi di dati analizzabili in tempo reale dal calcolo intensivo, non vi è più bisogno né di teoria, né di teorici – come se gli “scienziati” dei dati, specialisti nelle matematiche applicate a vastissimi database tramite algoritmi, potessero sostituirsi ai teorici che sono sempre, in linea di principio, scienziati, quali che siano i campi e le discipline scientifiche interessate.
Quattro mesi più tardi, il 23 ottobre 2008, Alan Greenspan, presidente della Federal Reserve sino al 2000, fu sentito a Washington dalla Camera dei rappresentanti: doveva spiegare le ragioni per cui così tante catastrofi finanziarie si erano innescate a partire dalla crisi dei subprimes del 2007. Chiamato in causa per non aver saputo né anticipare né prevenire la crisi sistemica, si difese affermando che la causa era stata un uso improprio delle matematiche finanziarie e dei sistemi di calcolo automatico che supportano la valutazione del rischio, instaurato dal digital trading nelle sue diverse forme (dai subprimes al high frequency trading):
È la difficoltà di una corretta valutazione dei titoli a rischio ciò che ha fatto precipitare la crisi. Nel corso degli ultimi decenni, si è sviluppato un vasto sistema di gestione e di valutazione del rischio che combina le migliori idee di matematici e di esperti finanziari, sostenute dai più grandi progressi nelle tecnologie informatiche e nelle telecomunicazioni4.
Greenspan sottolineò inoltre che il “premio Nobel per l’economia” aveva legittimato tali approcci5 “È stato assegnato un premio Nobel per la scoperta di un modello di pricing che è alla base di gran parte dell’aumento dei tassi di interesse sui mercati dei derivati”, dichiarava.– ciò significava che, se doveva esservi una messa in discussione, questa non poteva limitarsi soltanto al Presidente della Federal Reserve degli Stati Uniti: essa concerneva tutto il dispositivo di formalizzazione computazionale e di relative decisioni automatiche prese dai robot finanziari, piuttosto che la “teoria” economica occulta che ne aveva sostenuto la legittimità.
Se, sino all’agosto 2007, tutto ciò aveva “funzionato” (“questo paradigma ha regnato nei decenni”), se il dispositivo di formalizzazione computazionale e di decisioni automatiche si era imposto de facto,
l’intera costruzione intellettuale è tuttavia crollata nell’estate dell’ultimo anno [2007], in quanto i dati in ingresso nei modelli di gestione del rischio generalmente provenivano dai due decenni precedenti, che furono un periodo di euforia.
Senza dubbio gli ideologi di questa “gestione razionale del rischio” non ignoravano che i loro “giochi di dati” erano limitati, come potremmo aggiungere a proposito di Greenspan. Essi avanzavano comunque l’ipotesi che i “periodi storici di stress” avevano avuto luogo perché quegli strumenti finanziari non esistevano in quei periodi, e che la concorrenza non era ancora “perfetta e non falsata”. Tale era la teoria nascosta dietro questi robot supposti “oggettivare” il reale, che porterebbero dunque a compimento la “razionalità dei mercati”.
Poco tempo dopo l’articolo di Chris Anderson, Kevin Kelly gli obiettò che, dietro ogni apprensione automatizzata dei fatti, vi è una teoria nascosta, nota o ignota e, in quest’ultimo caso, in attesa di formulazione6. Per noi, se non per Kelly stesso, questo significa che dietro e al di là di ogni fatto, vi è un diritto.
La scienza è ciò che va al di là dei fatti facendo eccezione da tale diritto: è ciò che stabilisce che vi è sempre un’eccezione (ed è quanto, nel diritto, significa “eccepire”: affermare un diritto dell’eccezione) alla maggioranza dei fatti, anzi all’immensa maggioranza dei fatti, cioè alla loro quasi-totalità, e che li invalida in via di diritto (che invalida la loro coerenza apparente). Questo è quanto, nei capitoli seguenti, chiameremo con Yves Bonnefoy e Maurice Blanchot l’improbabile – ed è anche la questione del cigno nero posta da Nassim Nicholas Taleb in un senso più vicino all’epistemologia delle statistiche, delle probabilità e della categorizzazione7.
Note
↩1 | F. Kaplan, Quand les mots valent de l’or. Le capitalisme linguistique, “Le Monde diplomatique”. |
---|---|
↩2 | C. Anderson, The End of Theory. The Data Deluge Makes Scientific Method Obsolete, “Wired”, 23 giugno 2008. |
↩3 | Che allora si designava con l’espressione data deluge. |
↩4 | Cfr. Greenspan Testimony on Sources of Financial Crisis, “The Wall Street Journal”, 23 ottobre 2008, traduzione mia, con l’aiuto di Google Translate [B.S.]. |
↩5 | “È stato assegnato un premio Nobel per la scoperta di un modello di pricing che è alla base di gran parte dell’aumento dei tassi di interesse sui mercati dei derivati”, dichiarava. |
↩6 | Cfr. On Chris Anderson’s The End of Theory, “Edge/The Reality Club”. |
↩7 | N.N. Taleb, Il cigno nero. Come l’improbabile governa la nostra vita, il Saggiatore, 2014 |
condividi