Economia della complessità

Secondo l’economista Brian Arthur, uno dei protagonisti di quella inedita iniziativa che incrociava intriganti contaminazioni interdisciplinari, l’economia globale non va studiata e compresa solo tramite i modelli classici, ma con una apertura mentale verso i fenomeni inediti della complessità crescente. Secondo l’economista l’economia globale deve essere vista come una rete adattiva non lineare in tutto simile alla rete della vita.

Vediamo le caratteristiche che descrivono il nuovo approccio:

  • Interazioni disperse. Ciò che succede in economia è determinato dalla interazione in parallelo di numerosi agenti dispersi ed eterogenei.
  • Adattamento continuo. I comportamenti, le azioni e le strategie sono riviste continuamente e il sistema si adattata di continuo senza una soluzione definitiva.
  • Perpetua novità. Nuove nicchie vengono create dai mercati, nuove tecnologie irrompono continuamente, riempita una nicchia se ne aprono sempre altre.
  • Dinamica non in equilibrio. A seguito delle continue novità, nuove nicchie e possibilità, l’economia opera distante da qualsiasi equilibrio statico.

Insomma se si potesse fare una istantanea, la foto risulterebbe sempre mossa.

Nessun controllo globale, nessuna entità globale che controlli le interazioni, i controlli sono garantiti (quando lo sono) dai meccanismi di competizione e di cooperazione.

L’economia classica era guidata dalla fisica newtoniana, mercati in equilibrio tendenziale, individui razionali e simili tra loro, mercati stabili, quindi facili da studiare in quanto tutto derivava da premesse razionali (principio deduttivo) e i fenomeni erano tracciabili in modo lineare.

L’economia in quest’ultima epoca ho subito una sorta di modificazione ontologica: non è più descrivibile come una “macchina newtoniana”, ma piuttosto come un sistema organico complesso, continuamente adattivo, imprevedibile, vicino alla soglia del caos. E come ci ricordano De Toni e Comello nel loro “Prede o ragni” una della inedite caratteristica della economia oggi è quella dei rendimenti crescenti. Secondo la teoria dell’economia classica si ritiene che il mercato selezioni sempre, ad esempio, le tecnologie più valide sotto il profilo tecnico e funzionale in rapporto al prezzo, se così non fosse saremmo di fronte ad una violazione della teoria stessa. Da qui la legge dei rendimenti decrescenti (secondo la quale ogni unità aggiuntiva di un determinato fattore della produzione, fermi restando tutti gli altri fattori, produce dei rendimenti via via minori). In effetti sembrerebbe che il mercato permetta sempre l’affermarsi dei prodotti migliori. Ma così non è. Sono diversi i casi in cui non si è affermato affatto il prodotto migliore, andando invece a far emergere la logica dei rendimenti crescenti, in particolare nei prodotti tecnologici, o meglio ancora nei settori ad alta densità tecnologia digitale. La teoria dei rendimenti crescenti trova una naturale dimostrazione ed applicazione in qualunque campo ad alta tecnologia. Consideriamo, per esempio, un produttore di software. Per realizzare il proprio prodotto (codice) ha investito un milione di euro in ricerca e sviluppo. Questo milione di euro è il costo della prima copia del prodotto, la versione master. Dalla seconda riproduzione in poi (a maggior ragione se la distribuzione avviene via internet con la funzione di download, senza scatole fisiche o supporti di memorizzazione) si ha un costo marginale tendenzialmente prossimo allo zero. Questo vale per tutto il settore ICT, per la farmaceutica, per i settori ad alto contenuto tecnologico dove il grosso del costo è nella ricerca e sviluppo, dove per ogni esemplare riprodotto si ha una diminuzione tendenziale del costo, quindi un aumento dei rendimenti.

Quando si vende un bene fisico come un giornale, colui che lo vende ne perde la proprietà. Per venderne un’altra copia l’editore deve produrne fisicamente una seconda, e così via; l’impresa deve pertanto disporre di una struttura di produzione e di una logistica di distribuzione per fare arrivare le copie del proprio prodotto editoriale nelle edicole tutte le mattine.

Quando invece si vende un bene intangibile, slegato da qualsiasi supporto fisico (un brano musicale digitale, una formula chimica, un servizio via web, etc.), chi lo vende lo può rivendere (a meno che non abbia sottoscritto particolari contratti di esclusività) a costi di riproduzione nulli.

Il bene fisico, tranne le opere artistiche, perde generalmente valore col tempo e si usura con l’utilizzo; è tipicamente inserito in uno spazio fisico ben preciso ed è riconducibile facilmente a chi ne ha la proprietà.

La misura dei ritorni economici di un bene fisico segue una logica lineare, e generalmente, come accade nella realtà produttiva di una impresa, il raddoppio di manodopera non comporta, purtroppo, il raddoppio della produzione.

Invece la misura dei ritorni dell’informazione segue la logica dei rendimenti crescenti non lineari. Possedere una informazione esclusiva sui mercati o sulla concorrenza può essere utilizzato in tanti modi e può generare ulteriore business a costi addizionali nulli.

Fino a poco tempo fa le due economie, quella delle informazioni e quella delle cose fisiche, erano tra loro saldate; ci sono volute diverse generazioni di invenzioni tecnologiche per arrivare al compimento della rottura del vecchio trade-off che le legava inesorabilmente insieme.

Infatti, nelle epoche precedenti, erano le persone che andavano fisicamente nei luoghi nei quali poter accedere ad un contenuto informativo: l’appassionato d’arte doveva recarsi in un museo per vedere il dipinto del pittore amato; chi amava la musica doveva andare nei salotti musicali o a teatro per ascoltare le nuove armonie musicali alla moda; l’interessato ai mercati delle materie prime doveva intraprendere lunghi viaggi per andare nei luoghi deputati alle transazioni commerciali tra operatori e mercanti, tutti intenti a strillare l’ultimo prezzo di una materia prima.

La nascita e la diffusione della tecnologia per la stampa del libro ha creato una prima incrinatura nel trade-off che legava fino a quel momento l’informazione al suo bene fisico di supporto. Certo, un libro che riportava gli spartiti de Le quattro stagioni di Vivaldi rimaneva un oggetto tangibile, ma era sicuramente meno ingombrante di un teatro per un musicista che voleva riprodurre, per la sua amata, le melodie del pentagramma stampato. Tanto è vero che a nessuno è mai venuto in mente di brevettare un teatro, ma è altrettanto vero che emersero proprio con il libro i primi contenziosi inerenti la proprietà intellettuale delle opere. Ad ogni salto tecnologico che ha portato alla liberazione dei contenuti dai rispettivi supporti fisici, si è assistito all’emergere delle logiche dei rendimenti crescenti.

Ma vi sono anche stupefacenti vicende remote che ci ricordano varianti della logica dei rendimenti crescenti. Nel passato il tempo lo si misurava attraverso l’uso delle meridiane, osservando l’ombra del sole durante la giornata. In seguito, con l’affermarsi degli orologi nulla avrebbe vietato di progettare queste sofisticate macchine dove le lancette si sarebbero mosse in senso antiorario e rappresentando lo scandire del tempo in 24 ore. Eppure, come suggerisce Arthur, si sono affermati gli orologi con le lancette che si muovono come bene sappiamo e che rappresentano il tempo in 12 ore, confermando un variante dei rendimenti crescenti, dove non ha prevalso una superiorità tecnologica rispetto ad un’altra (ad esempio l’orologio della Cattedrale di Santa Maria del Fiore a Firenze, progettato da Paolo Uccello, il cui moto è antiorario e rappresenta il tempo in 24 ore), ma una convenzione tutta umana, una abitudine che in forma di retroazione positiva sociale ne ha consolidato l’uso .

Ancora qualche esempio. Hai presente la tastiera standard delle ormai obsolete e mitiche macchine da scrivere o della tua tastiera del computer? Lo standard affermatosi e che usi è quello “QWERTY” ovvero delle prime sei lettere posizionate nella prima fila dei caratteri alfabetici. Pensi sia intuitivo rispetto alla sequenza lineare dell’alfabeto che con fatica abbiamo appreso già dalle prime esperienze scolastiche? Direi proprio di no! Sarebbe stato più intuitivo “ABCDEF”. Eppure le cose non sono andate secondo l’intuito. Un ingegnere, un certo Christopher Scholes progettò nel lontano 1873 la tastiera “QWERTY” per uno scopo ben preciso: rallentare vistosamente la velocità di battuta dei dattilografi per evitare che i martelletti dei rispettivi tasti si incastrassero nella piastrina guidacaratteri.

In seguito a questa strana invenzione diverse aziende produttrici di macchine per scrivere immisero nel mercato migliaia di queste macchine con questa contro-intuitiva tastiera, di conseguenza sempre più dattilografi, immagino non senza qualche iniziale rabbiosa imprecazione, iniziarono a familiarizzare con quella diabolica tastiera. Anche quando in seguito la tecnologia permetteva di superare il problema meccanico delle prime macchine da scrivere (nel 1932 fu presentata una tastiera che raddoppiava la velocità della battuta e riduceva drasticamente la fatica) la tastiera “QWERTY” era ormai diventata lo standard di fatto, protetta da milioni di dattilografi, giornalisti, scrittori e ovviamente dagli interessi dei produttori. Questa consuetudine ormai radicata permise l’affermarsi di una tecnologia inferiore grazie al circolo vizioso della retro-azione positiva: i dattilografi imparano ad utilizzare la tastiera “QWERTY” ←→ la tastiera “QWERTY” sempre più si diffonde. Altra variante dei rendimenti crescenti. Così è stato nella affermazione del sistema di video-registrazione VHS ai danni dell’antagonista Beta, quest’ultimo più avanzato tecnologicamente.

In sostanza si sta dicendo che il successo di una cosa non dipende sempre dalle sue qualità intrinseche tecnico-funzionali, ma da quante persone stanno già facendo uso di quella cosa: se quella cosa prende piede prima di altre e diventa utilizzata da una discreta massa critica di persone, le altre cose, sia pure più avanzate, difficilmente riusciranno a scardinare la prima. Nell’economia di velocità l’assorbimento delle cose (prodotti o servizi) non ammette lentezze, il primo che arriva si prende la torta. Dagli esempi riportati si capisce che le tecnologie inferiori possono affermarsi, contro ogni regola economica classica, è ciò succede grazie ad un iniziale scostamento di equilibrio. Come sottolineano De Toni e Comello la retroazione positiva iniziale (adozione del prodotto o del servizio da parte delle persone) fa il resto, innescando i circoli viziosi visti prima. Siamo sempre nella complessità.

Nel approccio della economia della complessità si prende atto che l’ambiente – che poi è quello che stiamo vivendo – è altamente complesso e che l’azione di un individuo o di una organizzazione ha un effetto sugli altri: come ogni specie che si muove nel suo ambiente, il suo moto deforma gli ambienti dei vicini. La realtà insomma non è per nulla a causalità lineare.

Anche il noto cibernetico John von Neuman ebbe modo di criticare l’approccio classico, introducendo la sua teoria dei giochi in economia: «L’homo economicus è sì un agente che opera sul mercato sulla base di un criterio di razionalità cercando di massimizzare i profitti, ma è un agente che opera in condizioni di alta incertezza».

Fonte: #Smart Management – Gianni Previdi – Edizioni Scuola di Palo Alto – 2018

Share your thoughts