Tra i caratteri fondamentali del potere, lo sviluppo di un linguaggio proprio e difficilmente intellegibile da parte del resto della popolazione è cosa fondamentale, sperimentata in diverse epoche e ancora straordinariamente attuale. Dal latinorum del clero, al francese dell’aristocrazia, fino alle odierne conoscenze di base dell’informatica (i codici di programmazione) e della borsa (gli algoritmi), l’esercizio del potere, per motivi tecnici o più propriamente intellettuali si è sempre accompagnato ad un linguaggio non autoctono, ossia riservato ad una fascia parziale della società, i cui criteri di ammissione variano col tempo.

Informatica (fonte: Istituto “G.Galilei” Livorno)

Qualche mese fa su La Stampa appariva un articolo dal titolo perlomeno bizzarro: “La riscossa del latinorum”. Certo, il titolo era poco più di una divertente messinscena, alla cui base stava la ripresa del latino come mezzo di comunicazione, nientemeno che da papa Ratzinger. Ma la questione non finiva lì, perché anche dal campo del marketing le risposte che venivano dalla lingua in questione erano quelle di un linguaggio sintetico, incisivo, dunque ottimo per la produzione massiccia di slogan che è appunto alla base della pubblicizzazione di qualsiasi prodotto. Fa riflettere se si pensa che invece un tempo, e sotto alcuni aspetti ancora oggi il latino sia stato un linguaggio di estremo rilievo, non solo per l’istituzione di un rapporto di soggezione con il laicato (la celeberrima e abusata retorica del Don Abbondio di Manzoni). Determinante infatti fu -proprio perché incluso in un complesso di conoscenze riservate a pochi- nella stessa assunzione da parte della chiesa di un ruolo fondamentale nell’Europa cristiana. La diversione tra le lingue di quotidiano utilizzo comportò infatti il suo allontanamento psicologico -ma anche sociale- dal mondo, basti pensare a quegli ordini religiosi isolati in convento.

Un allontanamento i cui frutti saranno poi alla base del radicalismo evocato dalla Riforma, che la stessa ortodossia ora cattolica -e non più cristiana- tenterà di arginare. Dalla dualistica evocata tra i maggiori conoscitori della dottrina -e dal linguaggio teologico, il latino- e la maggioranza della popolazione si scatenerà letteralmente l’inferno, il potente impulso anti-idolatra che, pur nelle sue molteplici forme (dalla mistica dell’alumbradismo, alla “guerra di sterminio degli empi” evocata da Müntzer fino all’annihilazione -scomparsa di sé- professata dal begardismo) può essere riassunto attorno alla comune tendenza a rinviare alla proiezione del proprio piccolo gruppo di adepti all’interno della divinità al fine di rintracciarne una verità assoluta divenuta -nel caso di Müntzer ma non solo- arma di dominio nei confronti della comunità. Ne origina la più pura dinamica misterica, che è poi alla base di ogni gerarchia settaria: la compartimentazione della comunità in base alla vicinanza alla dottrina, assegnando agli appartenenti ad ogni grado la custodia di una conoscenza più approfondita di essa. La chiesa cattolica, ma anche quella protestante faranno molto per porre fine a tali dinamiche (tanto pericolose da provocare con Müntzer  una vera e propria guerra intestina, la Guerra dei Contadini del 1524-1526). Al di là degli sforzi, il principio alla sua base rimaneva rintracciabile in fondo ad un meccanismo gerarchico presente in ogni organizzazione religiosa: quello che porta alla scissione tra dottrina (e linguaggio) di massa e dottrina degli specialisti.

Con la secolarizzazione al latino finiranno per affiancarsi -senza però realmente sostituirsi- nuovi linguaggi, quello dell’aristocrazia e delle relazioni internazionali, ma anche quella della tecnica. Verrà ad affermarsi con l’accentramento assolutistico il sottile gioco delle diplomazie e del francese come mezzo di comunicazione per le alte cariche di una burocrazia ormai strutturata e assurta a strumento fondamentale dello Stato. Ad unire questo scivolamento verranno a fungere da collante non più -o non solo- le istanze religiose (e il conseguente contributo apportato dalla teologia) ma quelle filosofiche gradualmente secolarizzate tramite l’impulso iconoclasta dell’Illuminismo. Pur donando un contributo essenziale nella riapertura del dialogo intellettuale al di là delle logiche teologico-morali, lo sviluppo che l’illuminismo (il francese) porterà sarà però comunque legato alla dinamica di base fin qui propugnata. Debitore anche del potente impulso massonico, l’Illuminismo darà vita a partire dal ‘700 all’edificazione di una nuova ideologia, non più fondata su dogmi religiosi, ma laici. Conseguente poi che, nonostante il cambiamento dell’ottica complessiva anche il francese sia diventato a tutti gli effetti lo strumento di dominio a volte più prosaicamente degli interessi di un’aristocrazia di certo non vicina alle tesi dell’illuminismo, a volte direttamente agli scopi più poetici della Rivoluzione Francese, ma sempre nella sua condizione di variabile del dominio personale, come dimostreranno prima il ruolo della Guardia Nazionale nei fatti che costringeranno Luigi XVI a trasferirsi alle Tuileries e l’ascesa dei giacobini di Robespierre poi. Né la lingua francese perderà tale onorifica posizione una volta caduto Napoleone e avvenuta la Restaurazione. Il suo uso come lingua non autoctona avrà invece ancora davanti molti anni di prestigio, prima che ad affermarsi diventi l’inglese.

Assieme ad una lingua prettamente diplomatica -dall’utilizzo rivolto dunque verso l’estero- si affermerà però anche un primo barlume di linguaggio tecnico. Sempre presente, con le prime avvisaglie di Industrializzazione diverrà però predominante, anche perché non più trasmesso all’interno della piccola bottega artigiana, ma ora nell’impresa magari capace di determinare il destino di un’intera regione, o magari quello della nazione. Il linguaggio tecnico diverrà quindi strategico con l’Industrializzazione, perché rivolto ad una conoscenza non più fondata su una comune cultura di fondo ma allo scopo di esercitare funzioni vitali per il paese. Accanto al latino delle libere professioni e al francese della diplomazia e della politica estera si inizierà dunque ad evidenziare e ad acquisire importanza e visibilità il linguaggio della tecnica, ma stavolta secondo il criterio di fondo dell’indifferenza della provenienza dell’individuo al fine del suo apprendimento. Ciò che conta è solo l’esperienza, quel fattore “t” (tempo) necessario per acquisire tramite l’esposizione al linguaggio quelle capacità necessarie per esercitare la propria attività e svolgere le funzioni ad essa preposte. Protagonisti della perpetuazione delle conoscenze -attività di base dell’umanità- diventano quindi non più gli alteri e severi precettori della corrente gesuita, ma i rudi e pragmatici mastri prima ed operai poi. Il loro insegnamento sarà -anche in relazione a questo- non quello di un nuovo codice dotato di sintassi e struttura propria, dunque non intellegibile al di fuori della bottega (come con il latino o il francese) ma solo un gergo tecnico, distante dal resto della comunità in quanto vocabolario specifico, ma non come linguaggio a sé. Ne deriverà una sua natura spuria, potremmo dire “quasi autoctona”.

L’inglese erediterà l’esperienza di entrambi i campi, assumendo il ruolo di linguaggio tecnico, ma anche diplomatico e accademico di fondo. Gli effetti di questo processo sono d’altronde sotto gli occhi di tutti. Il successo affibbiato alla lingua in questione è probabilmente molto in vena di globalismo (o riduzione dell’intera collettività umana ad un blando e semplicistico villaggio globale). Basterebbe inscenare una farsa per chi ha tempo da perdere ed eccentricità a sufficienza, provando a passare una giornata girovagando per Roma parlando inglese; ciò sarebbe sufficiente a mettere in evidenza che forse siamo meno globalizzati di quanto ci piace pensare. Il grado di sintesi che è stato possibile operare grazie alla crescita degli strumenti di comunicazione (vedi la voce Internet), nonché l’estensione geografica coperta dall’inglese ha però indubitabilmente portato ad una versione più accettabile di linguaggio ecumenico (il Globish) che davvero non può più essere considerato puro appannaggio della Gran Bretagna.

I veri vincitori della competizione per linguaggi non autoctoni sono però a mio avviso ben altri del tanto osannato -e vituperato- inglese. Seppur affermato come linguaggio globale, questo oggi sicuramente perde molta della condizione di linguaggio delle élites, in virtù di una forte espansione del suo insegnamento (e dell’istruzione in genere). È certamente sintassi e vocabolario altro, fattori che potremmo considerare i due canoni di una lingua non autoctona. Lo sviluppo concettuale in Globish non è però decisamente più un privilegio di ambasciatori e filosofi, figurarsi di nunzi pontifici et similia (a proposito di latinorum). Senza sopravvalutare tale cambiamento -poco utilizzato è l’inglese al di fuori delle aule scolastiche e dei viaggi turistici- il terzo canone fondamentale che potremmo considerare ora resta certamente non rispettato. Barriere culturali, intellettuali o sociali sono ad oggi assenti dal rapporto tra il comune cittadino e tale linguaggio del potere. Di nuovo con le dovute cautele, non particolari capacità, né lunghi (e costosi) studi sono necessari per poter avere una minima conoscenza dell’inglese.

Potremmo dunque dire che coloro che ereditano l’insieme di fasi dei linguaggi del potere, rispondendo ai tre canoni in maniera pressoché soddisfacente sono altri. Il primo da noi individuato è certamente il vero artefice della rete, spesso catalogata tra le meraviglie del Globish, ma in realtà originato dalle ultime propaggini del linguaggio tecnico, ossia i linguaggi di programmazione. Nati nel contesto dei linguaggi formali, sono ad oggi la cosa più vicina che l’uomo abbia sperimentato nel tentativo di dare vita alla materia. Linguaggi di programmazione sono infatti i codici come il PHP, che letteralmente “dicono ad un sito web cosa fare”, rendendone la navigazione non più statica ma dinamica sulla base di una interazione tra utente e codice che non si limiti semplicemente a permettere al primo di scaricare i dati presenti nel secondo, ma procuri al computer un protocollo standard da seguire a seconda delle richieste che riceve. Programmazione è però anche quella alla base dello sviluppo di software, fino alla robotica, quella vita ex nihilo che tanto aleggia nei sogni del genere umano fin dalle sue origini. Una programmazione che sta assurgendo alla propria dimensione politica nel momento in cui si apre la strada nelle dinamiche di deliberazione politica (il Liquid Feedback utilizzato dal M5S e dai Piraten tedeschi per prendere le proprie decisioni). Ma anche quando si parla di scontro tra copyright e copyleft, tra free software, open source e licenze (un ottimo esempio qui), o quando si discute di come la raffinata tecnologia dei droni (aerei senza pilota) possa intaccare il rispetto del Diritto di Guerra e del Diritto Internazionale durante i conflitti. Se poi si mette sul piatto che il linguaggio di programmazione è dotato di una propria specifica sintassi, di un proprio vocabolario e che pone una barriera intellettuale in quanto necessita oltre un certo livello di particolari capacità, allora i connotati di linguaggio non autoctono (un linguaggio oltretutto molto potente e pericoloso) diventano chiari.

È qui che i dubbi di morozoviana memoria vengono a galla, in tutta la loro portata. Assumendo i tratti di un gergo tecnico ed assieme di linguaggio strutturato la programmazione opera potentemente come filtro della realtà, ma anche in un assetto di potere plasmatico, dove non solo è difficile risalire alle posizioni dominanti (a chi insomma controlla chi), ma oltretutto spezzettato, come se a quei vecchi mastri di bottega fosse ora possibile decidere della sorte altrui con grande facilità, aumentando con il proprio potere oltretutto le proprie capacità di anonimato. Operando infine nella dimensione di un linguaggio misto di logica formale e strategie atte ad emergere nel contesto caotico della gestione dell’enorme mole di dati presenti sulla rete. Il tutto mentre tu, povero scemo, continui a battere tasti sulla tastiera in un’ingenua interpretazione puramente euristica dell’Informatica, cioè andando a prove fino a ché la Ram non inizia amabilmente a friggere, infrangendo i tuoi sogni di genio del PC (e realizzando quelli del tecnico che verrà a porre rimedio alla tua scempiaggine in cambio di una dose generosa di denaro).

Veniamo infine ai tanto vituperati -e sconosciuti- algoritmi, terrore da sempre degli studenti e più recentemente anche degli adulti. Senza dilungarci oltre sulla mole di informazioni trovate scartabellando quella manna che è Google, proviamo a concentrarci su alcuni aspetti di particolare interesse. In riferimento a quanto detto nei riguardi della robotica, uno degli elementi più affascinanti dell’intero rapporto tra algoritmi e realtà è sicuramente quello degli algoritmi genetici (descritto in maniera chiara qui). Ben lungi dall’essere una mera esecuzione di protocollo (come più o meno qualsiasi algoritmo) l’introduzione al loro interno del paradigma evoluzionistico di Darwin ha portato a sperimentarne non tanto la loro mera esecuzione meccanica, quanto la capacità di reazione ai fattori esterni, di mutare tramite un effetto di feedback che ci riporta pienamente dentro la questione della robotica come vita ex nihilo.

Qualcosa che ci va vicino è uno strumento straordinario quanto temibile come l’event trading, capace di legare il calcolo di variabili meramente statistiche all’analisi ad altissime velocità dell’informazione specialistica direttamente reperibile sulla rete, cioè tra articoli, indici e simili. Facendo così in sostanza open source intelligence, gestendo cioè in maniera efficiente informazioni nascoste solo dalla loro mole complessiva, riuscendo a calibrare attorno ad un algoritmo anche informazioni complesse, ma anche a velocizzarne il reperimento, perché affidato a computer (il cosiddetto High Frequency Trading). Ciò che ne deriva è però di conseguenza una serie di stati del mercato che ne fanno complessivamente un sistema tendente all’implosione, o meglio al crash (detto flash crash per ovvi motivi). Riportiamo da Lega Nerd:

Balistica: Nel gergo anglosassone si dice the market went ballistic quando il sistema, che a causa dell’avvento degli algoritmi si trova in un equilibrio instabile, reagisce in modo violento alle sollecitazioni: i prezzi allora cominciano a muoversi come se fossero proiettili, seguendo cioè una forza che pare interna poco o nulla influenzata dall’ambiente esterno (leggi: fanno quel qatso che gli pare nonostante i governi tentino di arginare le situazioni).

Meteorologia: Con la diffusione degli algoritmi il mercato è diventato un sistema dinamico ad alta instabilità come quello meteorologico, facendo tornare in auge la teoria della farfalla di Lorentz. Il mercato è infatti composto da singoli che scambiano titoli seguendo logiche soggettive quali il guadagno e il cosiddetto intuito, ma il risultato delle operazioni può generare conseguenze imprevedibili e bisogna tenerne conto.

Genetica: Gli algoritmi genetici sono molto utilizzati nell’informatica, ad esempio nel campo dell’intelligenza artificiale, o anche nei sistemi di HFT più evoluti. Eseguono calcoli a partire da una base di conoscenze, applicando un metodo euristico di ricerca e ottimizzazione dei dati. Vengono usati nell’analisi e andamento (equiparabili all’evoluzione) degli scambi e transazioni, o anche per individuare (quasi etologicamente) tendenze comportamentali degli investitori o addirittura dei titoli per interpretarle.

Semantica: Una classe di algoritmi molto utilizzata è quella della semantica: tramite una costante monitorazione di blog, feed e media telematici in generale il computer cerca informazioni su beni finanziari e le interpreta computazionalmente il più rapidamente possibile applicando cose come l’analisi semantica, il natural language processing e il data mining; questo procedimento è alla base del motore di ricerca Wolfram|Alpha Sulla base dei risultati gli algoritmi operano transazioni prima che le informazioni vengano recepite da operatori umani avvantaggiandosi di circa un’ora (il cosiddetto Holding period). Questa pratica è chiamata event trading.

Scienza comportamentale: È lo schema sopra citato degli ordini civetta, o quote stuffing: il mercato viene inondato di una grande massa di ordini fasulli che vengono immediatamente ritirati, ma al singolo investitore permane la sensazione che si sia creato un interesse verso il tal titolo, e quindi è spinto a comprare ad un prezzo sempre più alto, raggiunto il quale il computer (che possedeva i titoli prima o che se li è accaparrati all’inizio dell’operazione ) vende al prezzo più alto conseguendo un guadagno. È ovvio che il guadagno sul singolo titolo è infinitesimale o comunque molto basso, ma la mole delle operazioni può risultare in un guadagno molto alto.”

In mezzo dunque a tante parole è evidente come anche in questo caso i tre canoni vengano rispettati, sia che si parli di programmazione, sia che invece si tratti di algoritmi di borsa. La lunga requisitoria che si appresta a finire sfora naturalmente ogni carattere di sintesi, e dunque ce ne scusiamo. Crediamo però altrettanto certo che -come si è potuto probabilmente notare- al di là degli enormi vantaggi procurati, i rischi dello scavalcamento operato tra intelletto umano e elaborazione meccanica, in special modo negli algoritmi di borsa non solo influenza pesantemente la nostra realtà, ma è e rimane a rischio di strumentalizzazioni parossisticamente invisibili, quanto di catastrofici crolli. Altrettanto indispensabile è inoltre riflettere sulla sottile linea che ad oggi collega il tanto clericale latinorum al profondamente laico principio della programmazione, intesa anche come riduzione a probabilità statistica i pericoli, al fine di renderli non più una punizione divina che cade dall’alto, ma un rischio attentamente e scientificamente calcolato. Inutile dire che la catastrofica serie di crisi sfociate poi nel crollo della Lehman Brothers del 2007-2008 hanno seriamente provato il contrario. Non resta che lo sforzo di capire, perché è il primo passo per porsi le domande giuste, cioè un modo di esistere capace di permetterci di lasciare questa realtà complessa, potente e a volte terrificante un po’ meglio di come l’abbiamo trovata.

Post Scriptum: ne approfitto per ringraziare Leo Reitano, senza il quale il collegamento tra latinorum e programmazione, derivazione di una memorabile discussione su Facebook non avrebbe mai avuto luogo. Chiaramente tutti gli errori sono nostri. Sarà magari però consolante sapere che la colpa di questa tortura intellettuale è anche un po’ sua.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here