Red-Plenty Platforms
Introduzione
Poco dopo il grande crollo di Wall Street del 2008, un romanzo su degli eventi storici oscuri e remoti ha fornito un inatteso spunto di discussione sulla crisi in corso. Red Plenty (“Abbondanza rossa”) di Francis Spufford (2010) ha offerto un resoconto romanzato del fallito tentativo da parte dei cibernetici sovietici degli anni ’60 di istituire un sistema completamente computerizzato di programmazione economica. Mescolando personaggi storici – Leonid Kantorovich, inventore delle equazioni della programmazione lineare; Sergei Alexeievich Lebedev, progettista pioniere dei computer sovietici; Nikita Krusciov, Primo Segretario del Partito Comunista – con altri immaginari e mostrandoli in azione tra i corridoi del Cremlino, le comuni rurali, le fabbriche e la città siberiana della scienza di Akademgorodok, Red Plenty riesce nell’improbabile missione di rendere un romanzo sulla pianificazione cibernetica una storia mozzafiato. Ma l’interesse che ha riscosso da parte di economisti, informatici e attivisti politici non è dovuto esclusivamente alla sua narrazione dello sforzo scientifico e degli intrighi politici, ma molto anche al momento in cui è stato pubblicato. Venendo alla luce in un periodo di austerità e disoccupazione, quando il mercato mondiale ancora stava vacillando sull’orlo del collasso, Red Plenty poteva essere interpretato in diversi modi:
– come un ammonimento che, evocando le sconfitte sovietiche, ci ricorda che il capitalismo rimane l’unico sistema possibile, anche se si è comportato male (“non c’è alternativa”);
– al contrario, come un ricordo di potenzialità non realizzate, non limitandosi a sussurrare lo slogan altromondista “un altro mondo è possibile”, ma ripetendo quello che David Harvey (2010) identifica come la più valida e sovversiva possibilità, di “un altro comunismo”.
Questo documento considera il romanzo di Spufford come un punto di partenza per poi imbarcarsi su un’analisi delle piattaforme di calcolo che sarebbero necessarie per una odierna “abbondanza rossa”. Non è una discussione sui meriti e i demeriti dell’attivismo dei pirati informatici, della disobbedienza digitale, del tessuto sociale della lotta elettronica, dei tweet dalle strade e delle rivoluzioni su Facebook, ma sul comunismo digitale.
Questo è un argomento che è già stato toccato sull’onda delle riflessioni sul mondo, dopo che il capitalismo aveva innnescato nel 1989 l’implosione dell’URSS, sfociate in proposte di “economia partecipativa” (Albert & Hahnel, 1991), di un” nuovo socialismo” (Cockshott & Cottrell, 1993), di “socialismo del ventunesimo secolo” (Dieterich, 2006), o di “comune” (Hardt & Negri, 2009). A differenza di alcune di queste fonti, tuttavia, questo saggio non mira a fornire bozze di progetto dettagliate, in concorrenza con le altre per un nuova società, ma piuttosto vuole dare ciò che Greig de Peuter in una conversazione personale una volta ha chiamato “bozze rosse”, indicazioni approssimative sulle possibilità rivoluzionarie.
Nel discutere di calcolo e comunismo è quasi impossibile sfuggire alle accuse di abbandonare le di lotte e di essere soggetti ad un determinismo meccanico. Certamente tutti i modelli automatici, teleologici ed evolutivi, incluse le coreografiche schematizzazioni delle forze e dei rapporti di produzione, devono essere respinti. Altrettanto importante, tuttavia, è evitare un determinismo umanista di segno opposto, che sopravvaluta l’autonomia e l’ontologico privilegio dell’uomo nei confronti della macchina . Oggi, i modi di produzione e le lotte che li sconvolgono sono intesi come combinazioni di azioni di uomini e di macchine, assemblaggi intrecciati, ibridati e coo-determinati nel modo inteso da Deleuze e De Landian” (Thorburn, 2013).
Questo è il motivo per cui è entusiasmante la stima che mi ha inviato Benjamin Peters, storico della cibernetica sovietica, secondo il quale, rispetto alle macchine a disposizione dei pianificatori di Red Plenty, diciamo nel 1969, la capacità di calcolo dei computer più potenti nel 2019 rappresenterà all’incirca un incremento di 100 miliardi di volte delle operazioni eseguibili in un secondo; un fatto che, come Peters sottolinea, “non è per sè stesso significativo ma comunque suggestivo”. L’esposizione che segue esplora questa suggestione. Questo articolo è quindi focalizzato sul filo diretto che lega i cibernetici sovietici ai continui tentativi di teorizzare una pianificazione economica basata sul calcolo del tempo di lavoro e i super-computer. Si discute poi delle preoccupazioni relative ad una pianificazione autoritaria centralizzata da parte dei social media e dei programmatori, prima di andare a considerare se la pianificazione è ridondante in un mondo di automi, di copie e repliche. A parziale risposta a quest’ultima domanda, “Red Plenty platforms” analizza il ruolo della cibernetica nella bio-crisi planetaria, per concludere con alcune osservazioni generali sulla cibernetica relative all’ “orizzonte comunista” oggi (Dean, 2012). Prima, tuttavia, si riprendono alcuni dei problemi, sia pratici che teorici, in cui si erano cimentati i pianificatori sovietici raffigurati in Red Plenty.
Il capitalismo è un computer?
Alcuni filosofi digitali suggeriscono che l’universo possa essere una simulazione al computer programmata dagli alieni: senza abbracciare questa posizione, ci sono motivi per sposare una tesi meno estrema, vale a dire che il capitalismo è un computer. Questa è l’affermazione implicita in uno dei più gravi attacchi intellettuali messi in campo contro il pensiero comunista, “il problema del calcolo socialista”, formulato da economisti della “scuola austriaca” come Ludwig von Mises (1935) e Frederick Hayek (1945). Scrivendo nel periodo caratterizzato dal successo della rivoluzione russa, questi economisti attaccavano le premesse e la fattibilità del un’economia pianificata. Tutti i sistemi sociali, essi riconoscevano, hanno bisogno di una qualche forma di pianificazione delle risorse. Il mercato, tuttavia, crea un piano non coercitivo, esteso, spontaneo ed emergente – ciò che Hayek (1976: 38) chiama “catallaxy”. I prezzi forniscono un segnale sinottico, astratto di esigenze e condizioni eterogenee e mutevoli, a cui l’investimento imprenditoriale risponde. Una economia pianificata, al contrario, deve essere dispotica e poco pratica, in quanto il calcolo di una distribuzione ottimale delle risorse limitate dipende da innumerevoli conoscenze locali sulle necessità di consumo e le condizioni di produzione, che nessun metodo di contabilizzazione centrale potrebbe valutare.
Gli economisti austriaci hanno così offerto un aggiornamento della celebrazione del capitale di Adam Smith, della “mano invisibile” , ora re-immaginato come un sistema di informazione quasi-cibernetico:
è più che una metafora descrivere il sistema dei prezzi come un tipo di macchina per la registrazione dei cambiamenti, o un sistema di telecomunicazioni che consente ai singoli produttori di guardare semplicemente il movimento di alcuni indicatori come un ingegnere potrebbe guardare le lancette di pochi sensori, al fine di adeguare le loro attività ai cambiamenti di cui non potranno mai sapere più di quanto si rifletta nel prezzo in movimento. (Hayek, 1945: 527)
Anche se ha fatto riferimento alle telecomunicazioni e all’ingegneria, Hayek, scrivendo nell’ultimo anno della Seconda Guerra Mondiale, potrebbe aver giustamente evocato i giganteschi computer centrali del progetto Manhattan, motivo per cui ha suggerito che il mercato abbia potuto agire come una macchina che fa calcoli automaticamente: un computer.
Questa è stata, tuttavia, un’arma a doppio taglio impiegata polemicamente contro il socialismo. Infatti, se il mercato si comporta come un computer, perché non sostituirlo con un computer? Se la pianificazione centrale soffriva di una problema di calcolo, perché non usare vere macchine di calcolo? Questo era esattamente il punto sollevato da un avversario di Hayek, l’economista Oskar Lange, che, rivedendo retrospettivamente il dibattito sul “calcolo socialista”, ha osservato: “Oggi il mio compito sarebbe molto più semplice. La mia risposta a Hayek … potrebbe essere: quindi qual è il problema? Mettiamo le equazioni simultaneamente su un computer elettronico e otterremo la soluzione in meno di un secondo ” (1967: 159). Tale era il progetto dei cibernetici presentati in Red Plenty, un progetto guidato dalla consapevolezza che l’apparente successo dell’industria sovietica, nonostante i suoi trionfi nel anni ’40 e ’50, è andata lentamente ristagnando tra disorganizzazione e colli di bottiglia relativi alle informazioni. Il loro tentativo era basato su uno strumento concettuale, la tavola input-output, il cui sviluppo è associato a due matematici russi: l’emigrato Wassily Leontief, che ha lavorato negli Stati Uniti, e il sovietico Kantorovich, il protagonista principale di Red Plenty. Le tavole input-output, che sono state recentemente riscoperte, sono tra i fondamenti intellettuali dell’algoritmo PageRank di Google (Franceschet, 2010); esse tracciano la complessa interdipendenza di un economia moderna, dimostrando come le uscite da un settore (ad esempio, acciaio o cotone) forniscano gli ingressi per un altro (ad esempio, le auto o abbigliamento), così che si può stimare la variazione della domanda risultante da una variazione nella produzione di beni finali. Dal 1960 tali tabelle sono state un strumento accettato da organizzazioni industriali di grande scala: il lavoro di Leontief giocò un ruolo importante nella logistica della massiccia offensiva dei bombardamenti della US Air Force contro la Germania. Tuttavia, si è creduto che la complessità della intera economia nazionale abbia precluso la loro applicazione ad una tale scala.
Gli informatici sovietici hanno cercato di superare questo problema. Infatti già nel 1930, Kantorovich aveva migliorato le tavole input-output con il metodo matematico della programmazione lineare che stimava la combinazione delle tecniche di produzione migliori o “ottimizzanti” per soddisfare un determinato obiettivo. I cibernetici degli anni ’60 miravano ad attuare questa innovazione su vasta scala attraverso la realizzazione di un’infrastruttura informatica moderna per svolgere rapidamente i milioni di calcoli richiesti dal Gosplan, il Consiglio di Stato per la Pianificazione, che supervisionava i piani economici quinquennali. Dopo un decennio di sperimentazione, il loro tentativo è fallito, frustrato dal pietoso stato del settore informatico sovietico che, essendo circa due decenni dietro quello degli Stati Uniti, perse la rivoluzione del personal computer e non sviluppò un equivalente ad Internet. Era quindi del tutto inadeguato al compito assegnato ad esso. Tutto questo, insieme all’ opposizione politica di una nomenklatura che vedeva nel nuovo metodo di pianificazione scientifica una minaccia al proprio potere burocratico, costrinse all’abbandono del progetto (Castells, 2000; Gerovitch, 2008; Peters, 2012).
Questo non è stato l’unico progetto nel Novecento di “rivoluzionari cibernetici”; notevole è stato anche il tentativo da parte del regime cileno di Salvador Allende di introdurre una versione più decentrata di progettazione elettronica, “project Cybersyn” (Medina, 2005). Guidato dal cibernetico canadese Stafford Beer, esso fu concepito come un sistema di comunicazione e di controllo che consentisse al regime socialista di raccogliere dati economici, e di trasmetterlo ai decisori del governo, pur incorporando all’interno della sua tecnologia garanzie contro la micro-gestione statale e di incoraggiamento per discussioni poliedriche di pianificazione. Questo è stato un tentativo di ingegneria socio-tecnica del socialismo democratico che oggi forse sembra più attraente rispetto alle manovre post-staliniste dei progettisti di computer sovietici. Ma ha incontrato una sorte ancora più brutale: Progetto Cybersyn è stato chiuso col colpo di stato di Pinochet del 1973. Alla fine il fallimento dell’URSS di adattarsi ad un mondo di software e di reti ha contribuito alla sua disfatta economico/militare per mano degli Stati Uniti. La sua disintegrazione, dove, come Alec Nove (1983) ha dimostrato, i colli di bottiglia relativi alla circolazione delle informazioni e le falsificazioni dei dati hanno svolto un ruolo importante, ha sembrato dar ragione agli economisti austriaci.
L’elogio di Hayek della “catallaxy” del mercato è diventato così centrale per il “pensiero neoliberista collettivo” (Mirowski, 2009), che ha portato alla successiva marcia vittoriosa del capitalismo globale.
La pressione combinata del disastro pratico dell’URSS e l’argomento teorico della scuola austriaca esercitò un’immensa forza all’interno di quello che è rimasto della sinistra, costringendola ad aspirare, al massimo, ad una economia di imprese di proprietà collettiva coordinate da segnali di prezzo. Le numerose varianti proposte di tale “socialismo di mercato” hanno stimolato le confutazioni da parte dei marxisti che si rifiutano di pensare ad un socialismo in cui permangano merci con valore di scambio. Forse, dato che conferiscono al mercato le funzioni di elaborazione delle informazioni automatiche attribuite dagli economisti austriaci e dai socialisti di mercato, tali varianti possono affrontare questioni di innovazione tecnologica o di disponibilità dei dati pubblici, ma non sembrano impegnarsi profondamente nello studio delle potenzialità del calcolo contemporaneo.
Oggi, dopo il crollo, chi sostiene che i mercati siano macchine informatiche infallibili può sembrare meno credibile di un quarto di secolo fa. Il furto parassitario di energia che sta alla base della trasmissione del segnale-prezzo (sfruttamento nel punto di produzione); l’incapacità delle singole borse merci di registrare azioni collettive (le cosiddette “esternalità”); e la ricorsività di un sistema crematistico che si avvita su sè stesso in speculazioni finanziarie, sono diventati temi salienti nel mezzo dell’implosione economica ed ecologica del capitalismo globale. Ma l’identificazione di tali difetti non fa venir meno l’obbligo per i comunisti di spiegare come un altro sistema di allocazione delle risorse – evitando la “servitù” della sottomissione statalista che Hayek (1944) ha predetto – potrebbe funzionare.
Algoritmi del lavoro
Nonostante la caduta del socialismo reale, l’idea della pianificazione economica computerizzata ha continuato ad essere sviluppato da piccoli gruppi di teorici, che hanno sviluppato la sua portata concettuale oltre qualsiasi cosa tentata dai cibernetici sovietici. Due scuole sono state di particolare importanza: il “nuovo socialismo” degli scienziati informatici scozzesi Paolo Cockshott e Alan Cottrell (1993), e la tedesca “Bremen School”, che comprende Peter Arno (2002) e Heinz Dieterich (2006), il secondo un sostenitore del socialismo del Ventunesimo secolo stile Venezuela. Queste tendenze sono recentemente confluite (Cockshott, Cottrell & Dieterich, 2010). Tuttavia, poiché poco del lavoro del gruppo di Brema è tradotto, ci focalizzeremo qui sul “nuovo socialismo” di Cockshott e Cottrell.
Il segno distintivo del progetto “nuovo socialismo” è il suo classico rigore marxista. Di conseguenza, la sua pianificazione da ventunesimo secolo con super-computer segue alla lettera la logica della fine del XIX secolo illustrata nella “Critica del programma di Gotha” (Marx, 1970), che notoriamente suggerisce che al primo stadio “inferiore” di comunismo, prima che condizioni di abbondanza consentano di dare “a ciascuno secondo i suoi bisogni”, il compenso sarà determinato dalle ore di lavoro socialmente necessarie per produrre beni e servizi. Sul posto di lavoro capitalista, i lavoratori sono pagati per la riproduzione della capacità di lavoro, piuttosto che per il lavoro effettivamente estratto da loro; ed è ciò che permette al capitalista di appropriarsi del plusvalore.
L’abolizione dello stato di cose presente, sostengono Cockshott e Cottrell, richiede niente di meno che l’abolizione del denaro, cioè l’eliminazione del mezzo generale di scambio che, attraverso una serie di metamorfosi all’interno e all’esterno della forma di merce, crea il valore in auto-espansione che è il capitale. Nel loro “nuovo socialismo”, il lavoro sarebbe retribuito con buoni di lavoro; un’ora di lavoro potrebbe essere scambiata per merci che richiedono, facenda un media socialmente, un tempo equivalente a produrle. I certificati sarebbero estinti in questo scambio, non circolerebbero e non potrebbero essere utilizzati per la speculazione. Siccome ai lavoratori sarebbe pagato il valore sociale completo del loro lavoro, non ci sarebbero i profitti dei proprietari, e non ci sarebbero capitalisti a dirigere l’allocazione delle risorse. I lavoratori sarebbero tuttavia tassati per costituire un serbatoio di tempo di lavoro disponibile per gli investimenti sociali realizzati da commissioni di pianificazione il cui mandato sarebbe fissato da decisioni democratiche su obiettivi sociali generali.
Il tempo del lavoro fornisce quindi l’oggettiva unità di valore per il “nuovo socialismo” (Cockshott & Cottrell 2003: 3). È a questo punto che gli autori tirano in ballo le capacità della tecnologia informatica. Tale sistema richiederebbe una enumerazione del tempo di lavoro speso, sia direttamente che indirettamente, nella creazione di beni e servizi, per valutare il numero di certificati contro cui questi beni e servizi possono essere scambiati, e per consentire la pianificazione della loro produzione. Riappare lo strumento di base della tavola input-output, con particolare attenzione al tempo di lavoro, sia come input necessario per la produzione di merci, sia come uscita che richiede essa stessa gli input per la formazione e l’insegnamento. Comunque, qui i “nuovi socialisti” devono affrontare un obiezione di fondo. Dalla caduta dell’URSS è stato convenzionalmente accettato che la mole di informazioni che i suoi cibernetici tentavano di elaborare era semplicemente troppo grande per essere trattata. Scrivendo negli anni 80′, Nove (1983) ha suggerito che un tale sforzo, che coinvolge la produzione di circa dodici milioni di oggetti discreti, richiederebbe una complessità di calcolo di ingresso-uscita impossibile anche per un computer. L’obiezione è stata ripetuta in recenti discussioni su Red Plenty, con i critici della pianificazione centrale che suggeriscono che, anche usando una “macchina desktop” contemporanea, risolvere le equazioni avrebbe preso “circa mille anni” (Shalizi, 2012).
La risposta di Cockshott e Cottrell tira in ballo nuovi strumenti, sia concettuali che tecnici. I progressi teorici sono tratti da rami di informatica che si occupano di abbreviare il numero di passi discreti necessari per completare un calcolo. Tale analisi, essi suggeriscono, mostra che le obiezioni dei loro avversari si basano su metodi “patologicamente inefficienti” (Cockshott, in Shalizi, 2012).
La struttura di input-output dell’economia è, fanno notare, “rada”, vale a dire solo una piccola frazione delle merci sono direttamente utilizzate per produrre qualsiasi altro bene. Non tutto è un ingresso per tutto il resto: lo yogurt non è utilizzato per produrre acciaio. La maggioranza delle equazioni invocate per sostenere un’insuperabile complessità sono quindi inutili. Un algoritmo può essere progettato per per semplificare il calcolo attraverso tavole input-output, ignorando le voci vuote, ripetendo iterativamente il processo fino ad arrivare ad un risultato di un ordine di accuratezza accettabile.
Il tempo sarebbe ulteriormente ridotto da un massiccio incremento della velocità di elaborazione dei computer dovuto alla legge di Moore. Pensare che una pianificazione economica di alto livello sia fatta su una “macchina desktop” è malafede. Il punto è la capacità dei supercomputer. Secondo una e-mail di Benjamin Peters, nel 1969, al tempo di “Red Plenty” il “cavallo di battaglia indiscusso” dell’informazione economica era il BESM-6 (“Bol’shaya electronicheskaya schetnaya Mashina”- letteralmente “grande macchina calcolatrice elettronica”), che poteva funzionare ad una velocità di di 800.000 flop o “operazioni a virgola mobile al secondo” - che è pari a 8 megaflops, o 106 flop. Entro il 2013, tuttavia, i supercomputer utilizzati nella modellazione climatica, per prove sui materiali e per calcoli astronomici hanno comunemente una velocità superiore a 10 quadrilioni flop o dieci “petaflop”. Il detentore della scettro di miglior computer al momento in cui scrivo è il Titan di Cray dell’Oak Ridge National Laboratory, che può raggiungere qualcosa come 17,6 petaflops (1015) (Wikipedia, 2013). Supercomputer con una capacità “dell’exaflop” (1018 flops) sono previsti in Cina entro il 2019 (Dorrier, 2012). Così, come Peters (2013) dice: “dando ai sovietici un po’ generosamente 107 flop nel 1969, siamo in grado di trovare (1018-107= 1011). . . un incremento 100.000.000.000 di volte maggiore fino ad oggi.”
Con queste capacità, l’ipotesi di Cockshott e Cottrell che i requisiti di sistema per la programmazione economica su larga scala potrebbero essere gestiti da impianti paragonabili da quelli ora utilizzati per scopi meteorologici, sembra quanto meno plausibile. Il “problema del calcolo”, tuttavia, comporta non solo l’elaborazione dei dati ma l’effettiva reperibilità di dati; l’obiezione di Hayek non era soltanto che i pianificatori centrali non possono macinare dati economici abbastanza velocemente, ma che i numeri in un certo senso non esistono prima della fissazione dei prezzi, che forniscono una misura altrimenti assente di performance di produzione e di attività di consumo. Ancora una volta, Cockshott e Cottrell suggeriscono che la risposta sta nel computer utilizzato come mezzo di raccolta delle informazioni economiche. Scrivendo nei primi anni 90′, e basandosi sui livelli di infrastruttura di rete disponibile in Gran Bretagna in quel momento, essi suggeriscono un sistema di coordinamento di pochi personal computer in ogni unità di produzione, che utilizzando pacchetti di programmazione standard, elaborebbe dati di produzione locali e li invierebbe via “telex” ad un centro di pianificazione, che ogni 20 minuti, o giù di lì, avrebbe emesso via radio dei dati statistici corretti da inserire a livello locale.
Questo è uno scenario che ricorda troppo il tecno-futurismo sgangherato di Brazil, di Terry Gilliam. Per rendere i “nuovi socialisti” aggiornati, dovremmo invece fare riferimento alla visione iconoclasta di Fredric Jameson a proposito di Wal-Mart, vista come “la forma di un futuro utopico che si intravede attraverso la nebbia” (2009: 423). Il suo punto di vista è che, se uno per un momento ignora il grosso sfruttamento dei lavoratori e dei fornitori, Wal-Mart è un’entità il cui colossale potere di organizzazione modella dei processi pianificati necessari ad elevare gli standard globali di vita. E come Jameson riconosce, e altri autori documentano in dettaglio (Lichtenstein, 2006), questo potere si basa su computer, reti e informazione. Entro la metà degli anni 2000 i data-center di Wal-Mart erano in grado di tracciare effettivamente 680 milioni di prodotti diversi a settimana e più di 20 milioni di operazioni di clienti ogni giorno, agevolati da un sistema informatico con una capacità seconda solo a quella del Pentagono. Scanner di codici a barre e punti vendita computerizzati identificano ogni articolo venduto, e memorizzano queste informazioni. Telecomunicazioni satellitari collegano direttamente i magazzini al sistema informatico centrale, e da quel sistema ai computer dei fornitori, per consentire automaticamente i nuovi ordini. La rapida adozione di Codici Universali di Prodotto da parte dell’azienda ha portato ad un “livello superiore” i requisiti per le etichette per l’identificazione con radio frequenza (RFID) di tutti i prodotti in modo da consentire il monitoraggio di merci, lavoratori e consumatori all’interno e al di là della sua catena di fornitura globale.
Wal-Mart è significativa perché si trova “sul fronte di uno spostamento sismico nell’immaginario aziendale”. E’ uno spostamento che collega la nozione di una “rivoluzione logistica” con la produzione “just-in-time” e “sfrutta le tecnologie digitali e cibernetiche emergenti per la gestione della produzione, della distribuzione e della vendita nel modo più rapido ed efficiente possibile” (Haiven & Stonemouth 2009: np). Questo cambiamento è stimolato dalla comparsa di un “internet delle cose”, legato alle informazioni digitali fornite da oggetti materiali attraverso una rete di prodotti dotati di stumenti, che forniscono dati su utenti e posizioni. Resa possibile dalla diffusione di sofisticate reti wireless 4G, i servizi di archiviazione dati su richiesta attraverso la “nuvola” di aziende come Amazon, e, in particolare, dall’ultimo allargamento del protocollo internet IPV6 sulla rintracciabilità, che fornisce identificatori digitali unici per “un numero veramente gigantesco di 340.000.000.000 miliardi di miliardi di miliardi di oggetti”, la comunicazione da dispositivo a dispositivo ormai probabilmente supera in volume i dati del traffico di Internet da persona a persona (Economist, 2012; np). Come Benjamin Bratton (2013) osserva, tale rintracciabilità, combinata con la codifica digitale compressa ad un livello sub-microscopico, apre una capacità virtualmente illimitata per l’identificazione non solo di cose e persone, ma anche dei loro componenti più elementari e delle loro relazioni. Così l’andamento sia delle velocità di elaborazione delle informazioni sia della capacità di raccolta dei dati pone le basi per il superamento del “problema di calcolo socialista”. Tuttavia, parlando di pianificazione in tale contesto complessivo si evocano inevitabilmente timori di un controllo di uno stato onnisciente. I “nuovi socialisti” provengono da una avanguardia marxista-leninista, con prospettiva autodichiaratamente “giacobina” e centralista (Cockshott, Cottrell, & Dieterich, 2011). Per trovare come una pianificazione cibernetica potrebbe essere sviluppato in modo più trasparente e partecipativa, abbiamo bisogno di guardare ad altre tradizioni comuniste.
Agenti comunisti
Storicamente, la tendenza anti-statalista nel marxismo è stata in gran parte dei casi rappresentata dalla variegata tradizione consiliarista, che, contro il potere del partito e dello Stato, ha insistito sul ruolo delle assemblee sui posti di lavoro come luoghi del processo decisionale, dell’organizzazione e del potere.
In un saggio antidiluviano per gli standard digitali, “Consigli operai ed economia di una società autogestita”, scritto nel 1957, ma ripubblicato nel 1972, subito dopo lo schiacciamento dei Soviet dei Consigli Operai dell’Ungheria, Cornelius Castoriadis ha sottolineato il frequente fallimento di questa tradizione nell’ affrontare i problemi economici di un “società totalmente autogestita”. La questione, ha scritto, doveva essere inquadrata fermamente nell’era del computer, dell’esplosione della conoscenza, del wireless e della televisione, delle matrici input-output , “abbandonando le utopie socialiste o anarchiche degli anni precedenti” perché “le infrastrutture tecnologiche … sono così incommensurabilmente diverse da rendere i i paragoni piuttosto privi di senso” (Castoriadis, 1972: np).
Come i progettisti di Red Plenty, Castoriadis immagina un piano economico determinato da tavole input-output e con equazioni di ottimizzazione che disciplinano la ripartizione globale delle risorse (ad esempio, l’equilibrio tra investimento e di consumo), ma con implementazione nelle mani di consigli locali. Il punto cruciale dal suo punto di vista è che, però, ci dovrebbero essere diversi piani disponibili in modo da consentire una scelta collettiva. Questa sarebbe la missione del “piano di fabbrica”, “un’impresa specifica altamente meccanizzata e automatizzata”, usando un computer la cui memoria “registrerebbe i coefficienti tecnici e l’iniziale capacità produttiva di ciascun settore” (Castoriadis, 1972: np). Questa officina centrale sarebbe aiutata da altre che studiano le implicazioni regionali di piani specifici, innovazioni tecnologiche, e miglioramenti algoritmici. Il “piano di fabbrica” non determinerebbe quali obiettivi sociali da adottare; semplicemente genererebbe opzioni, valuterebbe le conseguenze, e, dopo che un piano è stato democraticamente scelto, lo aggiornerebbe e lo rivedrebbe, se necessario. Castoriadis sarebbero d’accordo con Raymond Williams (1983), sull’osservazione che non ci sarebbe niente di intrinsecamente autoritario nella pianificazione, a patto che ci sia sempre più di un piano.
Questo primitivo concetto di autogestione cibernetica è un precursore di una più recente visione del post-capitalismo. “Economia Partecipativa” o “Parecon” di Michael Albert e Robin Hahnel. Anche questo viene fuori da una tradizione consiliarista, sebbene da una linea di pensiero anarchica, piuttosto che marxista. Il loro lavoro è famoso per il modello di “progettazione partecipata decentrata” (Albert, 2003: 122), alternativo sia ai meccanismi di mercato che alla pianificazione centrale.
I consigli sono, ancora una volta, le unità sociali di base per la decisione democratica, ma in “Parecon” questi includono non solo il lavoratore, ma anche i consigli di consumatori. L’allocazione delle risorse è determinata dalle offerte di tali organizzazioni per i diversi livelli di produzione e di consumo, che nel corso di una serie di cicli di negoziazione sono progressivamente ottimizzati attraverso delle Commissioni di Facilitazione dell’Iterazione. Nelle fasi successive del processo di pianificazione, i consigli dei lavoratori e dei consumatori sono incoraggiati dalle CFI a rivedere le loro proposte secondo le conoscenze degli input reciproci, fino a quando si è prodotta una sufficiente convergenza da rendere possible il mettere alcuni piani al voto.
La “Parecon” è stata oggetto di notevoli controversie. Una delle obiezioni più frequenti è quella esemplificata da Oscar Wilde quando ha osservato che “il socialismo è una buona idea, ma richiede troppe serate”- vale a dire che sembra richiedere riunioni senza fine. Hahnel (2008: np) suggerisce che l’ aumentata interattività sociale sia una caratteristica positiva per la “Parecon”, sia che la sua complessità non sarebbe necessariamente molto maggiore di quella di molti delle abitauli attività quotidiane richieste dalla vita capitalista – commercio, imposte, finanza ecc.. Ma sembra che la realizzazione dei cicli a più livelli ed iterativi che essi immaginano, ad una velocità sufficiente per riuscire a pianificare qualcosa, avrebbe richiesto una infrastruttura di rete molto sofisticata ed un alto livello di partecipazione tecnologicamente mediata: ampie banche dati accessibili dai consigli e da singoli soggetti, carte magnetiche elettroniche per la misurazione del lavoro e del consumo, software pronti per la preparazione di proposte, e sistemi di inventari just-in-time per la produzione (Albert, 2003: 133).
Infatti la “Parecon” sembra invocare uno sviluppo digitale che di fatto postpone la sua proposta: i social media. Una società di pianificazione partecipata, informata, collettiva, democratica e tempestiva richiederebbe piattaforme comunicative interattive, veloci, varie, in cui le proposte potrebbero essere fatte circolare, le risposte ottenute e, a lungo o breve tempo, individuate le tendenze, stabiliti i giudizi, generate e modificate le revisioni, e così via. Sarebbe, insomma, come chiedere che Facebook, Twitter, Tumblr, Flickrr e altre piattaforme Web 2.0 non solo diventino essi stessi imprese auto-gestite dai propri lavoratori (compresi i loro contribuenti non retribuiti, i prosumer), ma anche diventino sedi della pianificazione: Gosplan con “tweet” e “like”. Dobbiamo anche pensare a questi organismi trasformati nelle direzioni introdotte da esperimenti di social network alternativi, come Diaspora, Crabgrass, Lorea, liberati dall’incentivo del profitto e dal controllo centralizzato e che assumono una forma più distribuita e federata (Cabello et al, 2013;. Sevignani, 2013), diventando, come Hu e Halpin (2013) propongono, reti che nel loro stesso format danno priorità ai progetti di gruppo su singoli individui, o come piattaforme di “individuazione collettiva”; non tanto quindi social media ma “council media”.
Ma forse l’idea che tutti guardino lo smartphone per non perdere, non l’aggiornamento su Facebook, ma la votazione della settima iterazione del piano partecipativo, duplica aspetti poco attraenti della vita quotidiana nel capitalismo high-tech. Così filosofando ulteriormente, suggeriscono che ciò di cui la pianificazione collettiva decentrata ha veramente bisogno non è solo il supporto dei consigli ma di agenti comunisti: agenti software comunisti.
Gli agenti software sono entità complesse programmate capaci di agire “con un certo grado di autonomia … per conto di un utente (o di un altro programma)” (Wikipedia, 2013b: np). Tali agenti esprimono compiti di direzione verso gli obiettivi, loro selezione, individuazione di priorità e avvio degli stessi; possono attivare se stessi, valutare e reagire al contesto, esibire aspetti dell’ intelligenza artificiale, come l’apprendimento, e possono comunicare e cooperare con altri agenti (Wikipedia, 2013b: np).
Nel commercio, software “agenti di offerta” sono già in grado di superare gli esseri umani al punto che questi ultimi stanno sul punto di perdere il privilegio di essere gli unici agenti economici del pianeta (Kephart, 2002: 7207). La capacità di tali entità nel creare “una perfetta concorrenza” nei mercati elettronici le rende le preferite per gli economisti influenzati dalla scuola austriaca (Mirowski, 2002). Come acquirenti e venditori pre-programmati in grado di elaborare grandi quantità di dati di mercato, gli agenti software hanno trasformato il commercio elettronico a causa della loro capacità di cercare rapidamente in Internet, identificare le migliori offerte, aggregare queste informazioni per gli utenti, o, addirittura, effettuare acquisti autonomamente. Tuttavia, l’arena in cui tale agenti veramente eccellono è nel settore finanziario, dove il trading ad alta frequenza è interamente dipendente da software “bot” in grado di rispondere alle possibilità di negoziazione in millisecondi.
Non si può fare a meno di chiedersi, però, cosa accadrebbe se gli agenti software potessero essere usati per un diverso scopo? Notando che i modelli a Sistema Multi-Agente possono essere pensati come mezzo per rispondere a problemi di allocazione di risorsa, Don Greenwood (2007: 8) ha suggerito che essi potrebbero essere orientati verso la soluzione del “problema del calcolo socialista”. Come strumenti di pianificazione, i sistemi multi-agente, egli osserva, hanno il vantaggio sui mercati reali che “gli obiettivi e i vincoli affrontati dagli agenti possono essere pre-specificati dal progettista del modello ‘(Greenwood, 2007: 9). È possibile progettare agenti con macro obiettivi che vadano oltre la massimizzazione di interessi individuali; due dei principi di “welfare” che gli economisti hanno provato ad incorparare sono l’uguaglianza e la protezione dell’ambiente.
Forse, allora, dovremmo prevedere che i ripetuti cicli di decisione-pianificazione democratica, non siano solo discussi e deliberati nei social media, ma in parte delegati ad una serie di agenti software comunisti, che assorbono le richieste rilevanti del processo, corrono al ritmo degli algoritmi del trading ad alta frequenza, si infilano fra le reti ricche di dati, fanno delle raccomandazioni ai partecipanti umani (“se ti è piaciuta la geo-ingegneria più le nanotecnologie, ma non il piano quinquennale sul nucleare, allora si potrebbe … “), comunicando e collaborando tra loro a vari livelli, preprogrammati a soglie specifiche e a configurazioni di decisione (“tenere le emissioni di CO2 inferiori a 300 parti di un milione, aumentare i redditi della bassa quintile … e nessun aumento delle ore di lavoro necessarie per una tazza di caffe”).
Nell’era degli automi, questo può essere quello a cui può assomigliare un consiglio di lavoratori.
Automi, copie e replicatori
Ma alla fine, è veramente necessaria la pianificazione? Gli schemi di pianificazione centralizzata, neo-socialista e le loro versioni consiliari decentrate, connesse in rete, vedono entrambi i computer come strumenti di calcolo, uno strumento di misura, in particolare per misurare il lavoro: il loro scopo è quello di abolire lo sfruttamento capitalista restituendo ai lavoratori il pieno valore del loro tempo di lavoro. Vi è, tuttavia, un’altra linea di futurismo comunista che concepisce i computer non tanto come strumenti di pianificazione quanto come macchine di abbondanza.
Ci sono, potremmo dire, due modi per battere la “catallaxy” capitalista di Hayek. Uno è quello di superarla con il calcolo. L’altro è quello di farla saltare: la scarsità viene sostituito con l’abbondanza, ponendo fine alla necessità di prezzi o di pianificazione. Per i marxisti, l’abbondanza produce la transizione dalla fase “inferiore” del comunismo, che ancora deve cimentarsi con problemi di scarsità, alla fase superiore in cui “da ciascuno secondo le le sue capacità, a ciascuno secondo i suoi bisogni “. Una popolare metafora per le condizioni tecnologiche necessarie per quest’ultimo momento è il replicatore di Star Trek che automaticamente, e con una energia illimitata, provvede ai bisogni umani (Fraise, 2011). Questo saggio non vuole giudicare quale livello di soddisfazione dei bisogni dovrebbe essere considerato sufficiente, o quale combinazione di crescita e di redistribuzione è adeguato per raggiungerlo: questo sicuramente sarebbe il problema da affrontare per i pianificatori collettivi del futuro. Esso, tuttavia, identifica tre tendenze cibernetiche che puntano verso la fase “superiore” del comunismo: l’automazione, la copia e la produzione peer-to-peer.
L’automazione è stata un tema centrale nell’immaginazione comunista. Classico è l’ormai famoso “frammento sulle macchine” nei Grundrisse, dove, osservando la fabbrica della sua epoca, Marx (1973: 690-711) predice che la tendenza del capitale a meccanizzare la produzione farà, distruggendo il bisogno di lavoro salariato, saltare l’intero sistema. Il fondatore della cibernetica, Norbert Weiner (1950), vide come la sua conseguenza principale sarebbe stata l’eliminazione di posti di lavoro a beneficio dei computer. Questa tesi della fine del lavoro digitale è stata sviluppata molto senza mezzi termini da pensatori come André Gorz (1985) e Jeremy Rifkin (1995). Nel corso della fine del ventesimo secolo, tuttavia, il capitale ha notevolmente evitato questo scenario. Lontano dall’automatizzare completamente il lavoro, esso ha sia cercato serbatoi globali di mano do’opera a basso costo, sia seguito un “marcia attraverso i settori” che spinge ad un avanzamento della mercificazione del lavoro nei settori dell’agricoltura, dell’industria e dei servizi.
Dal 2000, tuttavia, il dibattito sull’automazione è ripreso. Continue riduzioni dei costi informatici, miglioramenti nelle tecnologie visive e tattili, gli investimenti militari delle guerre post 11 settembre in droni e veicoli autonomi, e le richieste salariali da parte dei lavoratori in Cina, India e altre fonti di manodopera in precedenza a basso costo hanno stimolato una “nuova ondata di robot … molto più abili di quelli oggi comunemente utilizzati dai produttori di automobili e di altre industrie pesanti, più flessibili e più facile da programmare, che ora stanno sostituendo i lavoratori non solo nella produzione, ma nei processi di distribuzione, di circolazione e di servizio come i magazzini, i call center e anche l’assistenza per anziani” (Markoff, 2012: np). Gli economisti Erik Brynjolfsson e Andrew McAfee (2011: 9), del Massachusetts Institute of Technology, hanno suonato l’allarme che il ritmo e la portata di questo sconfinamento nelle abilità umane “sta raggiungendo un nuovo livello” con “profonde implicazioni economiche”. Queste preoccupazioni sono state riprese da economisti famosi (Krugman, 2012). All’interno del capitale, l’automazione minaccia i lavoratori con la disoccupazione e l’accelerazione della produzione. Se, tuttavia, non ci fosse una tendenza dominante strutturale ad incrementare le produttività tale da portare alla disoccupazione o ad una maggiore produzione senza riduzione del tempo di lavoro, l’automazione potrebbe sistematicamente condurre ad un minore tempo speso nei luoghi di lavoro formali. In un quadro comunista che garantisse l’accesso al valore d’uso dei beni e servizi, la robotizzazione creerebbe la prospettiva di un passaggio dal regno della necessità ad uno di libertà. Si reintroduce l’ obiettivo – abbandonato sia all’interno dell’esperimento sovietico stakanovista sia nel sindacalismo occidentale che punta all’incremento dei salari, di liberare tempo dal lavoro, con tutto ciò che comporta in termini di auto-sviluppo umano ed impegno comunitario.
La stima di Juliet Schor (1991) è che, se i lavoratori americani avessero guadagnato dagli incrementi di produttività dagli anni ’50 non in salario ma in tempo libero, nel 2000 avrebbero lavorato una ventina di ore a settimana. Questo indica la scala di un possibile cambiamento. Nella politica della sinistra sono recentemente comparse proposte per un “reddito di cittadinanza”.
Ci sono certamente critiche da muovere a queste posizoini nel momento in cui esse sono sostenute come strategia riformista, col rischio di diventare soltanto una razionalizzazione del welfare che supporta la precarietà neoliberista. Ma sarebbe difficile da immaginare un futuro comunista sensato che non avese adottato tali misure per ottenere la riduzione del tempo di lavoro socialmente necessario, fatto reso possibile dai progressi della scienza e della tecnologia, eliminando il problema del calcolo di Hayek, togliendo ad esso la capitalistica merce primaria, la forza lavoro.
Se i robot minano la centralità del rapporto salariale, internet presenta una possibilità parallela, beni privi di un prezzo. Gli economisti famosi hanno da tempo riconosciuto le caratteristiche anomale di beni informativi non in concorrenza, che possono essere copiati senza fine quasi a costo zero, istantaneamente diffusi e condivisi senza nulla togliere al loro valore d’uso. Dato che la produzione intellettuale e culturale è diventata sempre più digitalizzata, queste tendenze a rendere internet “un luogo di abbondanza” (Siefkes 2012: np) sono diventate sempre più problematiche per il sistema dei prezzi. Il Capitale ha lottato per mantenere la forma merce nel cyberspazio, sia nei tentativi di far rispettare la proprietà intellettuale, sia trattando flussi informativi come acceleratori di pubblicità di altre merci. Ciò nonostante, la deriva di demercificazione del software si è dimostrata inestirpabile, ed stata potenziata dalle capacità di condurre questa circolazione al di fuori dei server controllati centralmente, attraverso le reti peer-to-peer. La pirateria, che ora rappresenta la maggior fonte della musica digitale, dei giochi, dei film e di altri software distribuiti in Asia, Africa, America Latina ed Europa dell’Est (Karaganis et al., 2011) è la manifestazione clandestina e criminalizzata di questa tendenza, e il movimento del software libero e dell’open source è la sua espressione organizzata. Quest’ultimo è stato al centro dell’interesse della sinistra libertaria dalla nascita della Free Software Foundation (di Richard Stallman nel 1984), che ha rilasciato il codice sotto la General Public License (GPL), garantendo agli utenti la libertà di riutilizzare, studiare, personalizzare, ridistribuire, e cambiare il software. Come Giacobbe Rigi (2012) osserva, la clausola cosiddetta “copyleft” della licenza GPL, che richiede che qualsiasi programma che utilizzi il codice GPL sia esso stesso rilasciato sotto licenza GPL, è una “negazione dialettica” del diritto d’autore perché contemporaneamente conserva e abolisce proprietà nel software, formulando “un diritto tutto incluso di proprietà globale” . Questo sviluppo è stato elaborato dall’organizzazione di Linus Torvalds nei primi anni ’90 con il metodo cooperativo collettivo volontario online per la produzione del software open-source. Come Rigi (2012) dice, la combinazione della licenza GPL e la programmazione collettiva in stile Linux open source “rappresenta la sintesi del modo di produzione P2P (peer-to-peer)”; egli vede in questo una realizzazione del “comunismo superiore” di Marx , riconoscendo la natura collettiva della conoscenza scientifica, e rifiutando ogni richiesta, basata sulla scarsità, di “equivalenza tra contributo sociale alla produzione e quota del prodotto sociale”.
Il software open source ha raggiunto un consideravole successo pratico (Weber, 2004), mentre la produzione P2P si è sviluppata in varie direzioni, con il suo orientamento politico che varia dal capitalismo libertario, a vedute liberali della nuova “ricchezza delle reti” (Benkler, 2006) come complementari e compatibili con i mercati, a versioni specificamente comuniste, come il progetto Oekonux (Meretz, 2012), allla fondazione ecumenica per per le alternative al P2P (Bauwens, 2012) che coprono tutto lo spettro delle attività umane. Tuttavia, anche se uno considera l’open source ed il Peer to Peer come il germe di un nuovo modo di produzione, le difficoltà di coltivare questo seme sono apparse evidenti. Una di tali difficoltà è la relativa facilità con cui il capitale ha incorporato questo seme come contributo a valle del processo di mercificazione: in effetti, l’intera tendenza del Web 2.0 si potrebbe definire come il contenimento della “nuova” di produzione P2P e dei suoi metodi di circolazione saldamente all’interno del guscio della “vecchia” forma merce capitalista . L’altro problema è quello che Graham Seaman (2002) ha definito il “problema lavatrice” – il divario tra produzione virtuale e materiale, tra l’abbondanza del software cornucopiana e la produzione industriale, che sembra limitare pratiche P2P, tuttavia avanzanti, ad un piccolo sottoinsieme dell’attività economica totale.
Negli ultimi dieci anni, tuttavia, questo divario è stato ridotto dal rapido sviluppo di forme di dispositivi di micro-fabbricazione controllati dal computer: la stampa 3D è la più famosa, ma ci sono una varietà di altri sistemi, comprese fresatrici con tecnica a sottrazione ed altri dispositivi di ingegneria miniaturizzati e digitalizzati che rendono le capacità industriali alla portata dei “laboratori pirata”, delle famiglie e delle piccole comunità. Questi strumenti hanno fornito il substrato ad un emergente movimento, quello dei “maker”, che collega le unità di produzione digitali alla circolazione in rete della progettazione, suggerendo ad alcuni che il “modo di produzione P2P possa essere esteso alla maggior parte dei rami della produzione materiale” (Rigi, 2012). Tali tecnologie sono anche associate alla proliferazione di robot e automi su piccola scala; infatti, il Santo Graal del movimento “maker” è il replicatore auto-replicante, la perfetta macchina di von Neumann. L’estrapolazione da queste tendenze pone i “fabbricatori digitali” e i “replicatori” immaginati dalla fantascienza molto più vicini alla realizzazione di quanto sembrava possibile anche poco tempo fa.
Anche il “maker” più orientato al mercato non esita a sottolineare che tali sviluppi sembrano restituire i mezzi di produzione nelle mani del popolo (Doctorow, 2009; Anderson, 2012). Ma come suggerisce l’esempio dell’open source, non c’è un’intrinseca logica comunistizzante nel movimento dei “maker”, che potrebbe facilmente portare invece ad una proliferazione di micro-imprese come anche di micro-comuni industriali. Nella sua critica ai liberali appassionati di P2P, Tony Smith osserva che il pieno sviluppo della produzione “pari a pari” è incompatibile con la proprietà ed i rapporti di produzione del capitale (2012: 178); fino a quando queste relazioni persistono, coloro che sono coinvolti nella produzione volontaria tra pari continueranno ad esprimersi all’interno del lavoro salariato da cui dipendono, ed il capitale si approprierà delle loro creazioni come “omaggi”, ed il più ampio sviluppo di tali progetti sarà privo di risorse.
Tuttavia, in un mondo dove gli investimenti venissero determinati senza favorire sistematicamente la mercificazione del sapere, e senza l’eventualità di dover combinare beni comuni con conoscenza protetta da copyright, l'”immensa promessa di emancipazione della produzione peer-to-peer potrebbe essere soddisfatta” (Smith, 2012: 179). Come Smith osserva, il capitale contiene in sé la tendenza a sviluppare tecnologie “che consentono ad alcuni beni con un certo valore d’uso di essere distribuiti ad un numero illimitato di persone a costi marginali che si avvicinano allo zero” (2006, 341): “In ogni forma di socialismo degno di questo nome, i costi delle infrastrutture e del lavoro sociale richiesti per produrre prodotti come questi sarebbero socializzati ed i prodotti sarebbero distribuiti direttamente come beni pubblici gratuiti a tutti coloro che li volessero”. Anche se Smith è scettico sul fatto che questa tendenza potrebbe, “nel prossimo futuro”, diventare prevalente in tutta l’economia, egli ammette che se lo facesse, l’esperienza sovietica, afflitta da problemi di scarsità, sarebbe “del tutto irrilevante per il progetto socialista” (2006: 241-2).
Infrastrutture della conoscenza nell’antropocene
Una società comunista dell’abbondanza ad alta automazione, software libero e replicatori domestici, potrebbero, tuttavia, come Fraise (2011) suggerisce, avere il bisogno di pianificare più che mai – non per superare la scarsità, ma per affrontare i problemi dell’abbondanza, che perversamente oggi minacciano le condizioni alla base della vita stessa. Il cambiamento climatico globale e una serie di problemi ecologici interconnessi sfidano tutte le posizioni che abbiamo discusso fino a questo punto. La crisi della biosfera porta la questione della pianificazione di nuovo sulla scena, o meglio quello del calcolo – ma calcolo secondo la misurazione dei limiti secondo unità di misura fisiche, soglie e gradienti di sopravvivenza delle specie, umane e non. Discutendo gli imperativi di una tale pianificazione ecosocialista, Michael Lowy (2009) fa notare come questa richiederebbe una sterzata sociale molto più completa del semplice “controllo operaio”, o anche la riconciliazione negoziata degli interessi dei lavoratori e dei consumatori suggerite da schemi come la “Parecon”.
Piuttosto, essa implica un rifacimento di vasta portata del sistema economico, compresa la sospensione di determinate industrie, come la pesca industriale e il disboscamento distruttivo, la rimodulazione dei metodi di trasporto , “una rivoluzione del sistema energetico” e la corsa verso un “comunismo solare” (Lowy 2009: np).
Tali trasformazioni coinvolgerebbero la cibernetica lungo due assi maggiori, sia in quanto contribuente alla corrente crisi ecologica e sia come mezzo potenziale per la sua risoluzione. Per quanto riguarda il primo di questi assi, i costi ecologici di tecnologie digitali teoricamente “pulite” sono diventati sempre più importanti: la richiesta di energia elettrica dei data-center dei cloud computing; le esigenze, da parte dell’industria dei chip, di l’acqua dolce e minerali, questi ultimi forniti da imprese estrattive di grande scala; e le conseguenti enormi quantità di rifiuti elettronici tossici. Fare di ogni casa una mini-fabbrica laboratorio farebbe solo accellerare la morte per caldo planetario. Contrariamente a tutte le nozioni idealistiche di mondi virtuali, la cibernetica è essa stessa parte inestricabile del sistema industriale reale, le cui operazioni devono essere poste sotto il controllo in un nuovo sistema di regolazione del metabolismo che ambisce ad un’abbondanza sia rossa che verde.
Tuttavia, i sistemi cibernetici giocano anche una parte potenziale in qualsiasi tentativo di risoluzione della crisi ecologica , o, in effetti, persino di un suo pieno riconoscimento.
“A vast machine” di Paul Edward (2010) analizza il sistema globale di misurazione climatologica e di previsione -l’apparato di stazioni meteo, satelliti, sensori, registri archiviati digitalmente e potenti simulazioni al computer, che, come la stessa Internet, hanno avuto origine dalla pianificazione della guerra fredda negli Stati Uniti – su cui si basa la comprensione del riscaldamento globale. Questa infrastruttura genera informazioni così vaste in quantità e da piattaforme dati così diverse in termini di qualità e forma che può essere compresa solo sulla base delle analisi del calcolatore. Le conoscenze sul cambiamento climatico dipendono dai modelli del computer: simulazioni sul meteo ed il clima; rianalisi di modelli, che ricreano la storia del clima da dati storici; modelli di dati, che uniscono e regolano le misurazioni da più fonti.
Rivelando la casualità delle condizioni per la sopravvivenza della specie, e la possibilità di un loro cambiamento antropogenico, tale “infrastruttura di conoscenza” di persone, manufatti e istituzioni (Edwards, 2010: 17) – non solo per la misurazione del clima, ma anche per il monitoraggio dell’ acidificazione degli oceani, la deforestazione, l’estinzione di specie, la disponibilità di acqua dolce – rivelano il punto debole della “catallaxy” di Hayek, in cui la basi stesse dell’ esistenza della forma di vita umana sono viste come un’esternalità arbitraria. Cosiddetti tentativi del “capitale verde” di subordinare tali bio-dati ai segnali di prezzo. E’ facile sottolineare la fallacia di un meccanismo di decisione dei prezzi per eventi non lineari e catastrofici: qual è il prezzo corretto per l’ultima tigre, o per l’emissione di carbonio che fa scattare un rilascio di metano incontrollabile?
Invece bio-dati e bio-simulazioni devono essere inclusi in qualsiasi concetto di pianificazione collettiva comunista. Nella misura in cui tale progetto mira ad un regno della libertà che sfugge alla necessità della fatica, i beni comuni che esso crea dovranno essere generati con energia più pulita, e la libera conoscenza che mette in circolo deve avere la regolamentazione metabolica come priorità. Problemi come la corretta remunerazione del tempo di lavoro richiedono l’integrazione con calcoli ecologici. Nessuna rifoma ecologica che non riconosca le aspirazioni di milioni di proletari planetari di sfuggire alla disuguaglianza e all’impoverimento avrà successo, ma le misure stesse del tempo di lavoro devono essere ripensate come parte di un più ampio calcolo delle spese energetiche compatibili con la sopravvivenza collettiva.
Conclusione: Per il K-ommunism?
Marx (1964), nel suo famoso, o famigerato, confronto tra il “peggiore di architetti” e la “migliore delle api”, ha visto i primi contraddistinti dalla capacità di “costruire nella immaginazione” la struttura che andranno a creare.
Oggi, grazie alla nostra migliore conoscenza delle comunità di api, questa distinzione puzza di antropocentrismo. Eppure, anche se a fianco di api, castori e altri primati, gli esseri umani manifestano una ipertrofica capacità di progetto. L’esperienza sovietica, di cui i cibernetici presenti in Red Plenty erano parte, è stata solo una realizzazione di tala capacità, angusta, specifica di un periodo storico, tragica, il cui autoritarismo nasconde il punto cruciale del concetto marxista di pianificazione, che è inteso come mezzo di elevazione che, tra una varietà di traiettorie, potrebbe seguire il divenire collettivo della specie umana. (Dyer-Witheford, 2004).
Un nuovo comunismo cibernetico, esso stesso una di queste traiettorie, come abbiamo visto, comprenderà alcuni dei seguenti elementi: uso dei più avanzati super-computer per calcolare algoritmicamente tempo di lavoro e richiesta di risorse, a livello globale, regionale e locale, per molteplici possibili percorsi di sviluppo umano; selezione di questi percorsi attraverso discussioni democratiche stratificate, condotte attraverso assemblee che comprendono i social network digitali e sciami di agenti digitali; aggiornamento alla velocità della luce e revisione costante dei piani selezionati tramite flussi di dati di grandi dimensioni provenienti dalle fonti di produzione e di consumo, il passaggio di un crescente numero di beni e servizi nel regno della libertà o meglio della produzione diretta come valori d’uso, una volta che l’automazione, il copy-left, i beni comuni prodotti con il peer-to-peer ed altre forme di microreplicazione prendono piede; l’informatizzazione di tutto il processo tramite parametri fissati dalle simulazioni, dai sensori e dai sistemi satellitari per misurare e monitorare l’ interscambio metabolico della specie con l’ambiente planetario.
Questo sarebbe davvero l’erede del comunismo di Lenin, “soviet più elettricità”, con le sue radici nel futurismo rosso, nel costruttivismo, nella tectologia e nella cibernetica, assieme alle immagini dei racconti scientifici di autori di sinistra come Iain M. Banks, Ken McLeod e Chris Moriarty. Esso sarebbe una matrice sociale che stimola forme di intelligenza artificiale sempre più sofisticate come alleate nell’emancipazione umana. Per coloro che temono la marcia della macchina, esso dà solo questo conforto: qualsiasi singolarità possa scaturire dalle sue reti, non sarebbe quella di entità inizialmente programmate per il profitto senza limiti e per la difesa militare della proprietà, ma piuttosto per il benessere dell’uomo e la protezione ambientale. Tale comunismo si addice ad una politica di accellerazione a sinistra che, in luogo dell’ anarco-primitivismo, del localismo difensivo e della nostalgia fordista, “spinge verso un futuro che è più moderno, una modernità alternativa che il neoliberismo è intrinsecamente non in grado di generare” (Williams & Srnicek, 2013). Se si ha bisogno di un nome, si può prendere il prefisso K con cui alcuni hanno designato lo sforzo “Kybernetic”, e lo si chiama ‘K-ommunism’. Lo spazio possibile per tale comunismo esiste ora solo tra le linee convergenti del collasso della civiltà ed il consolidamento capitalista. In questo corridoio che si restringe, esso sorgerebbe non per una logica data, teleologica, ma pezzo a pezzo ma tra innumerevoli collassi sociali e conflitti; un modo di produzione post-capitalista emergente in un contesto di enorme crisi nella metà del ventunesimo del secolo, che si crea nel corso di un centinaio di anni di storia comunista regolata da equazioni non lineari al fine di creare le basi per un futuro di abbondanza rossa.
(Fonte: www.culturemachine.net)
Ti è piaciuto questo articolo? Infoaut è un network indipendente che si basa sul lavoro volontario e militante di molte persone. Puoi darci una mano diffondendo i nostri articoli, approfondimenti e reportage ad un pubblico il più vasto possibile e supportarci iscrivendoti al nostro canale telegram, o seguendo le nostre pagine social di facebook, instagram e youtube.