PAGES

LUCCIOLE PER LANTERNE- Sognando la noesi

 

01
É sempre festa nell’asilo globale.

Marshall McLuhan

 

Je voulais être un mélange de Kurt Weill et Bertolt Brecht.

Dick Higgins

 

Nota introduttiva.  Uno.  L’espressione di intermedialità è qui di seguito usata per distinguere le nostre argomentazioni rispetto al termine americano di Intermedia coniato da Dick Higgins nel 1966.  Termine che segue di pochi anni la nozione di ipertesto – come gestione delle conoscenze – di Theodor Holm Nelson e di una decina d’anni le tesi di The Demon of Progress in the Arts di Wyndham Lewis.

In Horizons. The poetics and Theory of Intermedia 1984, Higgins espresse il convincimento che “much of the best work being produced today seems to fall between media.”  Poi, per evitare la confusione con due espressioni analoghe – mixed media e multimedia – suggerì l’uso di Intermedia per quei lavori “in which the materials of various more established art forms are conceptually fused rather than merely juxtaposed.”

Higgins aveva ipotizzato, a ragione, che la separazione delle discipline artistiche corrispondesse alla gerarchia sociale di un’era industriale oramai rivoluzionata.  Come egli stesso scrive, con l’automazione delle attività manifatturiere e l’arrivo di un’economia di servizi, nuove forme di espressione avevano preso il sopravvento ed erano forme capaci di sviluppare le zone in ombra tra i media.  Di contro, una nuova “dialettica” tra media e vita quotidiana, con il suo “fluire”, avrebbe restituito all’arte – attraverso gli happening e i progetti di natura intermediale – una diversa creatività che volle visualizzare in una mappa, successivamente definita da Hannah Higgins: “an open framework that invites play”, perentoria sulle aree e i confini.

Aggiungiamo che Higgins, attento lettore di Georg Simmel, Walter Benjamin, Harold Innis (Empire and Communication è del 1950) e Sigfried Giedion (Mechanization Takes Command è del 1948), sapeva bene che nell’autunno del Novecento l’egemonia della forma di merce si sarebbe – per suo destino – inverata nella cultura visuale e voleva in qualche modo precederla.  C’è un aneddoto che rivela questo obiettivo.  Nel 1973 Robert Filliou visitò Vancouver, dove operavano alcuni artisti dell’Intermedia Society, e incontrò Higgins.  Più tardi, raccontando questo viaggio sottolineerà che per Higgins Intermedia era soprattutto “a model for a new kind of art school.”

Nelle due decadi successive agli anni Sessanta l’espressione di Intermedia ebbe un certo successo in Canada, dove il pensiero di Marshall McLuhan era popolare nelle università, mentre fu pressoché ignorato in Europa, anche nell’opinione di molti degli artisti che si richiamavano a Fluxus.

Va aggiunto che il manifesto Statement on Intermedia del 1966 è, sottotraccia, in polemica con questo autore ritenuto, a torto, da molti, un tecnofilo e, per la sua insistenza sugli effetti delle tecnologie dei media, un determinista.

In seguito, con lo sviluppo della cultura digitale, il concetto di Intermedia ricominciò a circolare in forme e con obiettivi che non solo erano distanti da quelli di Higgins, ma spesso lo contraddicevano nel contenuto per promuoverlo nella forma, come nei crossmedia o nei transmedia di cui scrive Henry Jenkins.

Se poi, al di là dei tratti archeologici, consideriamo, con McLuhan, i media dotati di una temperatura, alla formula intermediale di Higgins andrebbe, oggi, sovrapposta una carta termografica che delinei la loro configurazione e, di conseguenza, il loro status di aperti o chiusi, sia perché il loro riscaldamento traccia il divenire della rappresentazione, sia perché gli Intermedia si generano per ibridazione ed agiscono da traduttori di esperienze e da metafore linguistiche matriciali.

 

Aux Bonheur des Dames.

 

Io non sono reale, io sono evento. 

Lady Gaga

 

Due.  Sono le valigie che narrano dei viaggiatori.  Higgins definisce il multimedia la manifestazione di una fusione tra linguaggi estetici differenti, mentre il mixed media è un’espressione che corrisponde a un mélange egualitario di materiali e di componenti.  In questo contesto l’Intermedia appare una forma espressiva focalizzata essenzialmente verso una nuova concezione del tempo teatralizzato.  Tale espressione, in termini fenomenologici, è una figura di cui l’happening e soprattutto la performance rappresentano la sua cornice testuale entro la quale si esprimono i poteri della mimesis.  É il suo tableau o, meglio, la sua esegesi, da cui Fluxus aveva sviluppato la forma liturgica.  Va aggiunto, che a differenza di George Maciunas – il quale favorì gli event al solo scopo di farne degli strumenti per scardinare gli intérieurs borghesi – l’Intermedia, per Higgins, tende a rivalutare la natura empirica del gioco attraverso il quale si forma il gusto estetico, in sintonia con le tesi sulla kalokagathia di Friedrich Schiller.  Nel sogno di Higgins il ventaglio degli Intermedia avrebbe dovuto sollevare il vento dell’arte moderna, ricomponendo le sue poetiche.  Un sogno forse possibile, considerato che negl’anni ’60 l’intermedialità appariva come un lievito in grado di attivare i processi fermentativi in uno spasmo di condensazione dei criteri che organizzavano la comunicazione.   Di contro, oggi, nelle performance, che abita i sweatshop dello spettacolo, il fine celebra i mezzi e consacra il cinismo dell’autenticità, il fine igienico delle illusioni, confezionato, come diceva Gottfried Leibniz, con “lo stupore metafisico del nulla”.

 

02

 

Diffidate delle fate. Con una mano danno, con l’altra prendono.

Bernard Rosenthal

 

Tre.  L’intermedialità appare attualmente una galassia di concetti che si sono strutturati nel tempo e che connettono tra di loro non solo comportamenti vicini – come parlare, vedere, agire – ma anche l’intertestualità di Julia Kristeva – intesa come il passaggio di un sistema di segni ad un altro.    L’interdiscorsività o la heterotopie di Michel Foucault.  Le figure dell’ékphrasis, e dell’allegorĭa, così come il concetto di device (con il suo archetipo nel dispositivo di Giorgio Agamben).  La médiologie di Régis Debray.  L’ipertestualità – sia classica che nella sua forma digitale pensata da Tim Berners-Lee – e la remediation, come è definita in Understanding New Media da Jay David Bolter e Richard Grusin.

A fianco dell’intermedialità c’è poi la media ecology della scuola americana e l’ampio terreno delle “pratiche intermediali” che si sono sviluppate nei diversi dipartimenti accademici di arte e di comunicazione visuale sulla scia del lavoro iniziale di Higgins.

Sia il concetto di Intermedia, sia quello di media ecology, fanno capo alle ricerche di McLuhan e nascono pressappoco negli stessi anni: il primo nel 1966, il secondo nel 1968, per opera di un altro newyorkese, Neil Postman, sociologo, educatore e media theorist.

Non si dimentichi che queste due nozioni hanno avuto un importante brodo di cultura nella “controcultura” degli anni ’60 e nella interdisciplinarità, con la quale nelle università si cercava di far convergere i metodi di ricerca e le costruzioni teoriche, nel tentativo di unificare la frammentazione del sapere specialistico.

 

Il medium, per McLuhan, è la figura che nasconde “a ground of services”, la cui “estensione” e la cui densificazione sono più importanti del medium stesso.  “It is the environment that changes people, not the technology”.  Rappresenta, in nuce, una concezione “environmentale” che nasce negl’anni ’50 e dalla quale, in seguito, germoglierà la metafora ecologista.

Come è risaputo, durante gli anni 1953-55 la Ford Foundation finanziò presso l’Università di Toronto una ricerca sugli studi intermediali.  Il seminario “Culture and Communication” e la rivista Explorations – diretta da Edmund Carpenter, Marshall McLuhan e Jaqueline Tyrwhitt, architetto ed esperta in “paesaggi” – testimoniano l’ingresso di questi studi nell’università e gettano le basi della “ricerca creativa sui media” divenuta oggi un aspetto fondamentale dei programmi di arte e delle scienze umanistiche.

Pour la petit histoire.  Nel giugno del 2016 la Media Ecology Association tenne il suo primo congresso europeo a Bologna  dove, tra l’altro, furono affrontati alcuni temi legati all’ecologia cognitiva come la “materialità digitale” e le affordance, partendo dal presupposto che il sistema dei media è oramai un ambiente nel quale abitano – come ebbe a dire Luciano Floridi – gli umani con le loro protesi elettroniche.

 

Around the counterculture.  La multimedialità – come tecnologia della memoria e della comunicazione – ha degli habiti che non dipendono esclusivamente dalla téchne, ma è attraversata, nonostante la sua persistente opacità, da molti altri fattori – antropologici, culturali, politici, artistici e generazionali – specialmente là dove è spettacolo.  Lo prova l’happening nel quale questi fattori ne disegnano una Gestalt (che qui definiamo come il modo con cui deve compiersi un evento) con circostanze espressive che caratterizzano gli anni ’60 e affondano le loro radici nel Black Mountain College, in quel Untitled Event realizzato, nell’estate del 1952, da John Cage, in quel momento professore senza studenti e alle prese con la composizione elettronica Williams Mix.  La narrazione vuole che Cage stesse leggendo Le Théâtre et son double di Antonin Artaud e alcuni testi di cultura antica orientale, in particolare di filosofia Zen.  Testi che gli permisero di elaborare il concetto di centricità di un avvenimento, vale a dire la possibilità che esso si compia in una totale autonomia espressiva e formale da tutti gl’altri con i quali “convive”.  Qualche anno dopo, a Parigi, nel corso di un’intervista a proposito del tempo in un event dirà: “laisser être” (lascia che sia), contraddicendo la vocazione ontologica del tempo nell’happening.  Al Black Mountain College Untitled Event fu vissuto dai suoi protagonisti e dal pubblico come una specie di mentoring, d’accordo con i metodi pedagogici di John Andrew Rice che lo dirigeva, ma non da Cage che da lì a pochi giorni ritornò sulla centricità  nell’ambito dell’esecuzione di Sonatas et Interludes.  L’invito a questo concerto era stampato sulla carta per le sigarette e all’entrata, per il pubblico, era stato messo un grosso canestro con del tabacco…il resto è conseguenza!   18 Happenings in 6 Parts è invece il titolo esplicito che nel 1959 Allan Kaprow darà all’evento multimediale che foggerà questo genere e che avrà il suo apice nel 1969 in un campo di trifoglio allagato dalla pioggia a Woodstock.  Nell’intervallo ricordiamo, en passant, che “multi-media” (con il trattino), come espressione della sovrapposizione di media differenti in concorso per la realizzazione di opere d’arte viventi, lo si trova in alcuni appunti-progetti di Lawrence Alloway, allora conservatore del Guggenheim e nei testi dell’associazione Experiments in Art and Technology (E.A.T) che, tra i suoi “sognatori”, ebbe Billy Klüver e Robert Rauschenberg reduci, nell’ottobre del 1966, dal festival newyorkese, 9 Evening: Theatre & Engineering.   Quanto alla transizione dall’happening alla performance è una storia di coagulazioni semantiche che si implementa – per usare lo slang digitale – negli anni ’70, radicalizzando i media al sistema dei sensi e alla ginnastica dei corpi

 

03

 

Un giorno Erik Satie, seduto al tavolino di un caffè parigino, disse a Fernand Leger che era con lui: “Sai, bisognerebbe creare della musica d’arredamento, cioè una musica che facesse parte dei rumori dell’ambiente in cui viene diffusa, che ne tenesse conto. Dovrebbe essere melodiosa, in modo da coprire il suono metallico dei coltelli e delle forchette senza però cancellarlo completamente, senza imporsi troppo. Riempirebbe i silenzi, a volte imbarazzanti, dei commensali. Risparmierebbe il solito scambio di banalità. Inoltre, neutralizzerebbe i rumori della strada che penetrano indiscretamente dall’esterno”. 

 

Nelle carte di Marsiglia la conoscenza è una serratura.

 

L’eruv è l’archetipo dell’evento in arte.  Ciò che disvela

 la magia del limes, la soglia della finzione. 

 

Se il contenuto di un medium è il contenuto del medium che lo precede, la remediation è ciò che ne modifica il senso, ovvero la “cosa”, facendo inevitabilmente assomigliare l’intermedialità a un tavolo di dissezione per incontri occasionali.  Ma guai ad aspettarsi qualcosa da una macchina da cucire e da un ombrello.  La riproduzione è verginale: rompendo l’uovo non si ottiene che una frittata, perché questa “cosa” – l’opera – “ne peut qu’être représentée par autre chose”, come scrive François Regnault, glossando Jacques Lacan.

Questo “qualcosa d’altro” è il vuoto.  Ciò che sta dalla parte del reale e che, con qualche sourd glissement, noi chiamiamo arte, vale a dire ciò che non ha contenuto.  (A dispetto di Samuel T. Coleridge, il reale non si amalgama con il simbolico, lo domina, riducendolo a rappresentazione e rendendo incerta la funzione narrativa dell’allegoria).

Lacan, nel suo ventesimo seminario, parlando del Finnegans, rileva come il significante viene sempre in soccorso del significato, ma per essere enigmatico deve palesarsi nella forma di lapsus più che di intermediazione linguistica.  Detto altrimenti, il medium è il messaggio che modifica la nostra relazione con l’esserci dell’esperienza, introducendo in questa l’imprévu. 

 

Al di là di questa mise in abime della rappresentazione, non va sottovalutato che dietro la intermedialità dorme la nozione di opera d’arte totale – la Gesamtkunstwerk, un geniale inganno filisteo per ridurre – identificandole l’una nell’altra – la vita e l’arte.  Inganno giustificato da una fittizia contrapposizione con una società industriale che lo aveva promosso e finanziato.

L’espressione la dobbiamo – e non deve sorprendere – a un teologo, Karl Friedrich Trahndorff, la sua degenerazione a Richard Wagner.

In ogni modo, la Gesamtkunstwerk, attraversando i confini del Novecento, si frantumerà contro le avanguardie storiche, attualizzandosi – ciò che oggi chiamiamo performance nella maggior parte dei casi non è che una sua forma recuperata: lo spettacolo sa come organizzare la nostalgia, ricomponendo le rovine da esso inflitte alla vita corrente – e si rafforzerà nei progetti della propaganda dei totalitarismi che hanno listato a lutto il Novecento: il sintomo contiene sempre una razionalità che acceca, basta guardare agli esiti di questa stagione.

Come distopia, caratterizzata dalla fluidità che domina nel contemporaneo i confini di genere, la Gesamtkunstwerk è un analogon della forma di infosfera nella quale – per impiegare un neologismo di  Floridi – masse di e-migranti cercano la Zacinto che si specchia nelle acque dello spettacolo.

Non è infatti per caso che il digitale sia assurto a modello di scomposizione di quel reale che – al pari della pietra del S. Michele – affiora prosciugato, totalmente disanimato e alfabeticamente irraggiungibile.

Oggi, il dominio della fluidità – funzionale allo spettacolo integrato – ha di fatto appannato il percorso fenomenologico della forma.  Per conseguire questo dominio l’astrazione concettuale è stata privilegiata alla materialità di genere dell’opera, in un processo inverso a quello che Jørgen Bruhn attribuisce a Clement Greenberg, quando questi stigmatizza una “visual art invaded by other mediums.”  Va inoltre detto che non tutto è fluidificato, la narrazione e la cultura mercantile non lo consentono, ma solo i confini tra i generi ridotti ad etichette dal predicato di “post”, incollato frettolosamente a “moderno”.

In quest’ottica l’intermedialità è stata spesso utilizzata dai newcomer con l’obiettivo di oscurare il senso dell’opera di per sé, avvelenandone il contesto, ovverosia l’evidenza sintomatica in quanto tale, perché il sintomo, nella modernità, rivela la “vita offesa” dalla quale fugge inutilmente.

Più in generale, il destino dei generi che compongono l’intermedialità è lo stesso della modernità: un lungo declino dei media caldi e un imporsi di quelli freddi, coniugati da un’incessante artificazione morfologica e dominati da una Kunstwollen (A. Riegl) come espressione conclusa del neo-capitalismo finanziario.

 

Il vero fascino del realismo sta nella sua incapacità di comprendere la realtà. 

Bernard Rosenthal

 

Di che colore sono, nella contemporaneità, i fili conduttori dell’hasard?  Quali di essi uniscono il mondo della vita alla noesi?  Quali forbici li tagliano?  Mnemosine quando si spoglia rivela l’invisibile.  Peccato che lo faccia al buio!  In questo buio l’intermediazione vanta spesso forme cospirative che annunciano le relazioni di somiglianza.  Eliminando ogni dettaglio, sognano la totalità.  Non è stato sempre così.  Le barricate di François Couperin hanno la loro intermediazione nel mistero che le descrive: il clavicembalo.

In questa constatazione ermeneutica, in questo essere ogni volta l’altrimenti – usando il dialetto heideggeriano  – “emerge il relazionale in quanto tale” nella sua dimensione sintomatica.  Questa dimensione, scrive Innis, è la causa formale che ambienta gli effetti intermediali dei generi.

Higgins, nel disegnare la sua mappa, privilegiò la crisi d’identità delle poetiche che deteriora la morfologia della comunicazione, ma salva l’événementiel.  Forse sognava una nuova “zimologia”.  Sapeva bene che il valore dell’apparenza densifica la rappresentazione ed esalta l’illusione, come quella di certi poeti visivi sedotti dall’ibridazione, che sognano di andare a letto con Gilda e si ritrovano con Rita, affogati in un sogno senza porte.

Complessivamente, nel buio della figurazione le immagini hanno sempre una dimensione anacronica che viola il candore lemmatico di cui sono portatrici e che s’infrange contro l’ortodossia delle cornici testuali.  Senza catarsi non c’è nepsis, svanisce il potere della parola di separare i poeti dalle loro illusioni, consolandoli oscenamente!

 

Può la figura retorica conciliarsi con l’evento intermediale?  Domare l’ossimoro di un realismo iconico alle prese con l’improbabile?  Fluxus sognava di essere una forma di atteggiamento vissuto che ribalta l’ovvio.   Per George Maciunas era evidente, per i suoi gratificati un inconveniente.

La piega nasconde sempre un disegno in forma di enigma, può un collage pescare lo sguardo?  Significare una cosa diversa da quella che si vede?  Solo la forma di spettacolo fa di questi miracoli, come quando mette le fotografie di Clark Gable e Scarlett O’Hara sulla copertina di Guerra e pace di Lev Tolstoj.

 

Nella trappola dell’intermedialità, intesa come una trasgressione frontaliera, il cammino attraverso i confini dei generi tende a confondersi per diventare avvenimento imprevisto, scoperta fortuita, illusione di qualcosa, progetto assiomatico in cui è “installata” una speranza euristica nella forma di un altro genere di conoscenza.  Questa confusione brilla soprattutto nella poesia visiva, cosiddetta, perché defigura il sintomo per promuovere lo sguardo scaturito dall’evidenza visuale dello spettacolo.  Una poesia che fa delle piccole apparenze l’apologia dell’apparizione, illudendosi che il destino ontologico della parola sia di adattarsi al messaggio invece di fronteggiare il sintomo.  Come scrisse Friedrich Nietzsche, la carta che brucia si curva.

 

La poesia è stata l’arte di insegnare agli uomini ad essere ingannati dalla parola.

 

Il visivo come guarnizione rivela il pasticcio culinario della poesia. 

 

Nella poesia visiva la lettura, sostituita dallo sguardo che scivola sull’immagine o sui ghirigori,  finisce per diventare un oggetto semiotico in cui si rifrange la scopofilia (Schaulust): un’avidità pulsionale più che una leurre.  Dentro questo presagio, in cui lo spettacolo divora la vista, l’ermeneutica, uscendo dal bianco della nebbia, consuma ciò in cui abita, la “rappresentazione”, a giusto titolo divenuta un’opera in cerca di un chiodo in un museo.  A giusto titolo, perché questo realismo dell’apparenza semina l’illusione che il reale sia solubile nelle immagini che lo contraffanno.  Che l’immaginabile sia riconducibile alle cronache visuali dello spettacolo.  Che nell’adesso della leggibilità (G. Didi-Huberman) la poesia ritrovi i suoi archivi.  La centralità del senso, che emerge sempre come un enigma che ustiona.

La vera poesia è nell’altrove della parola che dipinge, nel brusco rabbrividire della voce, nel canto dei “churinga” che coniugano il ronzio delle api al sibilo della freccia.

Lo vediamo nella stagione delle odi malinconiche, che ricamano la belle époque.  Fu una pratica inaugurata da Guillaume Apollinaire che fece della parola una crèation picturale adagiata sul tappeto auratico di una scrittura maudit.  Poi, con le avanguardie, vennero gli ermetismi e i manierismi composti di decori retorici che fuggono la crisi tra la parola e il mondo.  L’impotenza dei lessemi sulla furbizia dei garbugli iconici.  La fine dell’ascolto, che i greci consideravano la forma dell’ospitalità interiore.

 

L’usabilità dei media non è che la conseguenza essenziale della Ver­läs­sigkeit.

(Alla maniera di Heidegger)

 

In pittura il gatto è il custode delle soglie, una prolessi.

 

Entr’acte.  Da sempre una “pulsione classificatoria” affligge la gnòsis e in particolare l’arte, come un luogo sconosciuto da comprendere e decifrare, coinvolgendo le sue bordure – configurate come un suffisso parodico – e i suoi confini, dove tutti i couplage sono possibili.

Per la scolastica lo testimonia il catalano Raimondo Lullo, doctor illuminatus.  Nella sua dottrina l’arte ha la capacità di confezionare elementi semplici e primi, tracciando un’ontologia che attinge alla struttura stessa del reale.  Elementi raffigurati da lettere e simboli diversi – cerchi, figure mobili, agglutinature – che traggono origine dalla tradizione cabalistica, suscettibili di relazioni combinatorie e capaci di promuovere ogni erranza.

Nella stagione dell’illuminismo ci proverà Charles Batteux quando, nel 1746, pubblicherà Les Beaux-Arts réduits à un même principe.  Uno dei primi tentativi di delineare un vero e proprio “sistema delle arti”.  Il punto d’avvio della riflessione di Batteux è la constatazione della necessità di una sistematizzazione del discorso relativo all’esperienza artistica, al fine di comprendere sia il valore dei suoi mezzi specifici, che la posizione e il ruolo giocato dalle singole arti nel complesso della cultura del suo tempo.  L’originalità del lavoro risiede, da un lato, nell’aver ordinato in un unico quadro sinottico, teoricamente autonomo, mezzi espressivi diversi, dall’altro, nell’aver individuato nella forma di espressione la funzione dell’arte.  Aggiungiamo che Batteux, studioso, non a caso, di teologia, ebbe una certa fama quando Immanuel Kant, nella Critica del giudizio, divulgò il suo Versuch (tentativo), prendendone le distanze.

 

04

 

Nonostante le avanguardie storiche, in particolare dopo il surrealismo, sarà Etienne Souriau, da alcuni definito il padre dell’estetica contemporanea, a promuovere, nel corso della decade dell’illusione, un impossibile statuto epistemologico per le arti, inseguendo pericolose cosmogonie.

Lo farà dalle pagine di L’avenir de l’esthétique 1929, disprezzato da André Breton e celebrato dagli amanti dei colletti di celluloide.

Così, è dall’idea dell’arte come un pleroma, che Souriau visualizzerà, nella forma di un gateau ontologico, una delle ultime illusioni del Novecento: di ridurre i generi a categorie funzionali ai media, spogliate dall’ombra del negativo, ridotte a consuetudini fenomenologiche, a corrispondenze corrose sui loro impossibili confini.

Lo stesso farà Higgins, con il suo meticoloso e continuo lavoro di “imprigionamento” dei generi, delle poetiche e dei metodi, vale a dire, dei modi di procedere – all’interno di un classificatore anglosassone, scientifico e linguistico – declinato come una sfida al mondo newyorkese della cultura e soprattutto a se stesso.

Sulla scia di McLuhan, Higgins mostrò come le tecnologie mediali, autogenerandosi, divengono estensioni dei sensi di cui forgiano il messaggio.  Pragmatico, sapeva che il conoscere è fatto di nessi a cui è possibile conferire una dimensione visuale, non per caso nella grafica degli Intermedia ciò che è nominato, ordinato e classificato è ciò che, profanando Heidegger, crea l’Ereignis, da cui derivano le configurazioni dell’essente, il contesto intorno a cui le proprietà dei media si raccolgono.  Di contro, ciò che non si adegua a questo neo-Geviert (quadratura) è rigettato dalla sua mappa di Molvena nei cerchi senza nome dove regnano il confuso e l’inclassificabile.

“Entr’acte: Les étoiles tombent du ciel.”  Alfred Jarry 1895.

 

A volte non sono sufficienti il fosforo del senso e la ceralacca del contenuto. 

Bernard Rosenthal 

 

Timeo Danaos et dona ferentes.

 

L’astuzia della forma è di trascendere ciò che dice tramite ciò che dice.  Ogni stagione ha le sue chimere intermediali, nel Barnum’s American Museum c’è una sirena che fu acquistata a peso d’oro da un certo dottor Griffith.  Era stata pescata nei pressi di un’isola del Pacifico.  Misura circa otto piedi.  Erano anni in cui – ha stigmatizzato Daniel J. Boorstin – le favole non si erano ancora arrese agli pseudo-eventi della società dello spettacolo.

Poi piovve, ciò che l’espressione intermediale ha guadagnato in complessità ha perduto in concretezza, perchè la sua imago non è più in grado di attraversare l’oscuro.  È il motivo per il quale le immagini digitali soffrono di una bulimia da realismo e sono condannate a condensarsi.

 

Nei recenti sviluppi dell’ideologia digitale le interfacce dei crossmedia – come sono chiamati dai netizen – per poter essere efficaci, devono essere caratterizzate da un altro predicato, quello dell’immediatezza.  Un’immediatezza che banalizza il medium a favore delle tematiche agée di quel medium.  Come hanno notato Bolter e Grusin, l’intermedialità in questo modo finisce per enfatizzare il processo o la performance, piuttosto che il genere, come espressione artistica compiuta.  Finisce per valorizzare le window, che in un’epoca ancora recente potevano essere oscurate con le pagine dei giornali.

Resta la fascinazione, perchè questa intermedialità digitale con le sue finestre esprime una logica che le avanguardie storiche avevano proficuamente inventato con il collage e il fotomontaggio.  Allora come tragedia, oggi come inganno, dal momento che, insegna la rimediazione, tutti i media dipendono da altri media nel sogno “souverainiste” di rimediare il reale in nome dell’Umwelt.

 

Non c’è aspetto degli Intermedia di oggi o dei crossmedia del nuovo avvento che non sia già apparso nelle avanguardie storiche come un trasalimento o come una performance di domesticazione.  Lev Manovich ha definito l’estetica neo-mediale con l’espressione di Infoestetica, ma per rischiarare questa estetica dell’evento non basta il gas illuminante del Large Glass di Marcel Duchamp, né la donna stuprata che solleva la fiamma a gas negli Etant donnés.  Non basta neppure il congegno chimico-musicale del grande poeta Raymond Roussell.  Quell’enorme gabbia di vetro trascinata sulla scena dal chimico Bex, dentro la quale c’è “un immenso strumento musicale formato da diffusori a tromba di rame, corde, archetti circolari, tastiere meccaniche d’ogni sorta” azionato e compromesso con i gas.

Nella contemporaneità il contenuto di un’opera d’arte, scrive McLuhan, è l’espressione del medium che ce la mostra, è la ragione principe per la quale la critica esalta nell’arte povera il fascino dell’inesprimibile, la parodia della bellezza apollinea.  Quest’opera d’arte non può che realizzarsi come spettacolo mistico – il tacere che domina l’etimo è un ripudio della parola – e apparire come un’icona senza ombre, senza la forza del negativo e l’oscurità del sintomo.  Appare financo numinosa.  Nei musei splende come portatrice di una supposta epifania dell’invisibile che Arthur Danto – contraddicendo se stesso – definì regressiva.  Quanto al predicato di povero qui ha la funzione di un arcaismo che invita all’ascesi mercantile.  Nessuna art-land è più sinistra del “paese dei balocchi”.

 

La tecnica, in quanto è legata senza saperlo al vuoto dell’essere,

è l’organizzazione della penuria (des Mangels).

Martin Heidegger

 

In The bias of Communication (1951), Innis sottolinea come c’è un potere, nella forma di medium, che altera l’azione degli altri media con i quali entra in relazione: “Il monopolio londinese della ferrovia fu stroncato dall’invenzione del telegrafo che incoraggiò la concorrenza delle province”, la diffusione della performance rende inutile la storia dell’arte, sospende il senso delle poetiche a favore degli enigmi della forma, soprattutto favorisce l’interscambiabilità tra il museo e il centro commerciale.

Questo potere della performance risiede nel fatto che non ha confini, né margini.  Che può estetizzare il sociale e il politico.  Che può essere pervasiva e far coincidere il registro del simbolico con l’ordine del linguaggio.

In una prospettiva estetica la performance valorizza la combinazione dei significanti, scegliendo il restauro al reficere, concentrando un massimo d’informazioni improbabili in un tempo e in uno spazio sempre più digitalizzato nell’altrove.  Appare come una bordatura della Cosa che circoscrive l’ordine simbolico.  Intensifica il vuoto causativo del reale favorendo un realismo apparente, che conferisce all’intermedialità una illusoria potenza che lo sguardo non possiede più da tempo.  Almeno da quando Leonardo cercò di fabbricare una chimera a partire da un pezzetto di lucertola, un criceto, un serpente e un pipistrello.

Una performance non andrà mai oltre il teatro come il sogno non va mai oltre la poesia, lo sapevano bene Michael Kirby che nel suo libro Happenings (1965) li definisce una sorta di music-halls o Maciunas che quando pensava ad un’azione Fluxus sognava le feste a Versailles di Luigi XIV.

 

La materia è la sostanza etica della vita corrente.

Bernard Rosenthal

 

La parola Zyme si ripete tredici volte nella Bibbia.

 

La intermedialità, soprattutto quella digitale, appare inattaccabile dalle sanzioni dell’ontologia perchè, anche se è perimetrata dalle sue finestre, anche se è vissuta come un prodotto antropologico  dell’immaginario, di fatto è fluida, in un movimento che Floridi ha definito di ri-ontologizzazione continua.

Dentro questo movimento cercare di estirpare la sua complessa tassonomia si capovolge nell’annichilire le condizioni per smascherarla in quanto tale, a meno di insinuarsi nell’irriducibile scarto dentro il quale regna ancora la figura retorica dell’ékphrasis, una figura capace sia di amplificare l’eloquenza performativa della parola – nella sua essenza, pensiero di una ratio – sia di mettere a nudo la forma di spettacolo ipostatizzando i suoi prodotti.

Va da sé, è una figura oscillante e fragile a causa delle sue battaglie contro l’eterno presente digitale in cui la performance alleva le sue ierofanie.  Battaglie nella forma di una descrizione – per citare il racconto kafkiano, Beschreibung eines Kampfes – e senza la consolazione di una vittoria.

Tuttavia, il frastuono di foglie cadute che Odradek fa nel muoversi, supera quello delle illusioni processate dalla macchina digitale.  Muovendosi i fili conduttori dell’hazard  trasformano un “rocchetto di spago piatto a forma di stella” in qualcosa che ha la capacità di vivere, di parlare, di violare il principio di non contraddizione aristotelico, fino all’iperbole dell’immortalità.

Come ogni forma Odradek, al pari di Immanuel Kant, ha bisogno della sensazione per funzionare.  Funzionando costringe la gnoseologia ad occuparsi dei contenuti sintomatici dell’arte e sorride.

 

In onore dello zuavo del Pont de l’Alma, con gli scarponi nell’acqua della Senna. 

 

Per concludere.  Sulle piattaforme digitali Higgins è diventato popolare grazie a un aneddoto in cui spartisce il gateau dell’intermedialità tra generi e professioni in mezzo alle quali spicca quella del calzolaio con una invidiabile quinta parte del merito.

Un calzolaio reale come il signor Kearney che potremmo incontrare al Temple Bar di Dublino.  Come il Leprecauno, ciabattino delle fate, che nasconde la sua pentola di monete d’oro alla base dell’arcobaleno.   Reale come Jusep Torres Campalans o Nat Tate.

Un calzolaio che deve il suo successo, come certi cappellai, ad un’altra tavola, non meno importante di quella di Lautréamont, disegnata da Dimitrij Mendeleev, come ci raccontano le statistiche sulle malattie professionali.

Ebbene, questo calzolaio è il grano di mirra con il quale Higgins ha imbalsamato il cadavere dell’arte della twenty-fourth street, è il notaio di Fluxus che ha rifiutato di trasferire, per conto di George Maciunas, il fondo creativo di questo movimento a Ginger Island, in nome di una rivoluzione di cui quest’isola sarebbe stata il primo gradino.

Questo calzolaio è il sogno della piccola “a” di portare il “grande tutto” – di cui parla Benjamin – davanti all’abisso del sintomo.  Invano.

LUCCIOLE PER LANTERNE – (Sognando la noesi) – Gianni-Emilio Simonetti

(Gennaio 2020) 

 

Appunti di Sociologia della Comunicazione – A.A.2019-20 – Parte III

SOCIOLOGIA DELLA COMUNICAZIONE

(PARTE TERZA)

ALCUNE PREMESSE ORIENTATIVE.

Nelle società moderne la vita corrente è sempre più simile a un immenso accumulo di spettacoli.

Lo spettacolo – come lo definì Guy Debord più mezzo secolo fa – non è solo un insieme di immagini, ma va considerato come un rapporto sociale fra gli individui mediato dalle immagini.

Ne deriva che, nella post-modernità, le relazioni sociali sono “mediatizzate” dalle immagini.

Immagini che giocano un ruolo essenziale nella definizione della vita sociale e culturale e, per conseguenza, nella costruzione dei significati e della produzione simbolica.

A partire dal secondo dopoguerra – soprattutto negli Stati Uniti – le immagini hanno progressivamente occupato il posto che fu della parola e della scrittura, e mostrato come questo immergersi nel mondo visuale penetri in modo significativo nella vita corrente.

Il risultato è oggi che le immagini hanno sostituito, in moltissimi campi della vita sociale e culturale, la scrittura, intesa come un canale privilegiato di comunicazione.

Questo stato di cose – sociale, culturale, politico e tecnologico – obbliga a ridefinire il rapporto tra il linguaggio scritto e il linguaggio visuale, perché questo rapporto è alla base di numerosi processi culturali dai quali derivano le formazioni sociali e le strutture ideologiche della società.

Anche se la scrittura ha giocato un ruolo chiave nella definizione del nostro passato, nelle società postmoderne le immagini stanno sostituendo,con una frequenza sempre più accelerata, i testi scritti come forma culturale ed educativa dominante.

Possiamo dire che il mondo, come esperienza testuale, è stato, in questo secolo, in buona parte sostituito da un mondo come esperienza visuale.  

Questo significa che siamo i testimoni di un passaggio da una cultura del discorso, testuale e diacronica, come dicono i linguiti, ad una cultura dell’immagine che ha la caratteristica di essere sincronica e con un forte impatto mediatico.

In sostanza, i principi organizzativi del mondo occidentale sono sempre di più fondati sulle immagini piuttosto che sulla scrittura.  

È come dire che la cosiddetta post-modernità è “oculocentrica, non solo per la quantità delle immagini che circolano e che organizzano la conoscenza (grazie ai supporti digitali), ma perché gli individui hanno appreso a interagire con delle esperienze visuali il più delle volte costruite e socialmente rilevanti.

Esperienze visuali che giocano lo stesso ruolo dei fatti sociali in virtù del loro carattere impositivo.

Come ha scritto Nicholas Mirzoeff, docente di cultura visuale presso la New York University, il visuale ha reso obsoleto qualunque tentativo di definire la cultura e la società in termini esclusivamente linguistici.

Per valutare la portata del flusso di immagini che è intorno a noi diciamo che, in un’ora di una qualunque trasmissione – tramite uno schermo – noi possiamo vedere più immagini di quelle che vedeva in una intera vita un qualunque abitante di una capitale europea nel diciottesimo secolo.

Va ricordato che oltre alle immagini fotografiche, cine-televisive, informatizzate, esistono molte altre forme di dati visuali che circondano l’esperienza del vivere.

Anche se non ce ne rendiamo conto, oltre alle immagini in senso classico, molti degli oggetti che ci circondano veicolano significati visivi.

Basta pensare agli edifici urbani, alle strade, agli edifici religiosi, ai centri commerciali.

Non va poi sottovalutato – come ha scritto Erving Goffman – che buona parte dell’interazione sociale si basa sulla comunicazione prodotta dal linguaggio del corpo, dalle espressioni del viso, dai movimenti e dalle pose che assumiamo, in modo più o meno cosciente.

Questa attenzione alla dimensione visiva del mondo sociale segna il passaggio da una sociologia tradizionale ad una sociologia più attenta al visuale, inaugurata a suo tempo dallo storico americano Daniel J. Borstin e sviluppata da Marshall McLuhan sulla scorta delle ricerche della Scuola di Chicago e di Toronto, dove insegnava.

Un passaggio dietro cui ci sono molti interrogativi.

Chi produce le immagini? Per quale motivo le produce? Da chi sono viste? A chi sono indirizzate? Chi le interpreta? Chi le utilizza, in che modo le utilizza?


Molti degli autori che si sono occupati di sociologia visuale (Nicholas Mirzoeff, Stuart Hall, Jessica Evans, Chris Jenks) provengono dai cultural studies.

Gli studi culturali costituiscono un particolare indirizzo di studi sociali che ha origine in Gran Bretagna, alla fine degli anni ’50 del secolo scorso, come ampliamento del settore della critica letteraria verso i materiali della cultura popolare di massa.

Gli studi culturali, fin dall’inizio, combinano una varietà di approcci critici, molto spesso politicamente impegnati, tra cui il post-modernismo, la semiotica, il marxismo, il femminismo, gli studi di genere, l’etnografia, la teoria critica della società, lo strutturalismo e gli studi post-coloniali.  

L’obiettivo degli studi culturali è quello di comprendere  come venga elaborato il significato, e come esso sia in relazione – secondo l’impostazione teorica postmoderna – con i sistemi di potere e di gestione di essi.

Più corretta dell’espressione di significato sarebbe quella di Weltanschauung che, nella filosofia tedesca, esprime la concezione del mondo, della vita, e della posizione in esso occupata dall’uomo.


In breve, studiare la cultura visuale non significa semplicemente analizzare le immagini, ma prendere in considerazione la posizione (sempre più centrale della visione) nella vita quotidiana e di conseguenza nella costruzione e nella condivisione dei significati.

– La principale caratteristica della cultura visuale è la tendenza a visualizzare delle cose non-visuali con l’aiuto di supporti tecnologic, in particolare digitali.   

È un aspetto che cambia, ancora una volta, il rapporto tra ciò che è visibile e ciò che non lo è:

– In passato l’arte sacra ha visualizzato, attraverso l’occhio della fede, una particolare forma di invisibile – il divino.

– La fotografia nell’Ottocento ha permesso all’occhio della scienza di rappresentare e riprodurre la realtà visibile.

– Tecnologie, come il microscopio e i raggi X, hanno permesso al secolo scorso di guardare al di là delle possibilità della vista e di rendere visibile una realtà invisibile, ma reale.

– Infine, nella stagione del visuale – come l’ha definita nel 1999 lo scrittore e saggista francese Régis Debrayla tecnologia rende visibile una realtà che è solamente una simulazione, che noi possiamo vivere come reale.   

In quest’ottica, paradossalmente, l’immagine costruita con il computer è, da un punto di vista ontologico, più simile a un’icona religiosa che a un’immagine prodotta dalle tecnologie digitali.    

– Un secondo aspetto della cultura visuale è la tendenza a visualizzare l’esistenza.

Basta guardarsi intorno per comprendere che tutto tende a divenire visibile.

Dai modelli informatici alla medicina.

Dalle interfacce grafiche ai telefoni, fino alla vita privata.

– Un terzo aspetto della cultura visuale è la centralità dell’esperienza visuale.

Fino a secolo scorso esistevano delle rappresentazioni visuali socialmente definite e gli individui ne erano i destinatari passivi.

Oggi chi osserva può – con un minimo di competenza digitale – padroneggiare le immagini,

de-contestualizzarle, impiegarle per comunicare.

Ha osservato Marshall McLuhan, con uno dei suoi paradossi, se la Gioconda esce dal Louvre parigino e finisce su una t-shirt assume un significato completamente diverso da quello dell’originale appeso nel museo.

In altri termini, è divenuto essenziale capire ciò che gli individui e le istituzioni fanno con le immagini e che cosa si ripromettono con esse.

– Un ultimo e importante aspetto della cultura visuale è la visualizzazione del mondo.

La visualizzazione suppone che le immagini non siano né la realtà né la sua rappresentazione, ma una sua simulazione che capovolge l’idea stessa di realtà.

Ma cosa vuol dire visualizzare?

Per il senso comune vuol dire rendere visibile, mostrare.

Nel contesto degli studi sociologici realizzare un’immagine significa produrre una costruzione sociale, anche quando questa costruzione mantiene un rapporto indicativo con la realtà rappresentata, come nel caso della fotografia e del cinema.

In questo senso visualizzare significa dare una definizione della realtà.

Equivale a veicolare un significato, a produrre una determinata visione del mondo.

Ciò vuol dire, come conseguenza, che la visualizzazione – quale che sia il mezzo tecnologico su cui si fonda, dal pittogramma al pixel – contribuisce a rendere visibili le relazioni di potere.

Un piccolo esempio di questo ce lo suggerisce John Berger, un critico d’arte inglese che ha scritto diversi libri sul tema delle immagini e della visione, quando sottolinea come nella rappresentazione della donna e dell’uomo nella pittura europea si espliciti una relazione di potere per la quale l’uomo è colui che guarda, dominando, la donna è colei che appare.

Questa pittura riflette la differente importanza sociale attribuita, dalla cultura occidentale, ai due sessi.

Lo sguardo dell’uomo è l’espressione del potere.

La figura femminile è il guardato, è l’oggetto che si lascia guardare.

Stilisticamente possiamo aggiungere che, in questa pittura, colui che guarda – l’uomo – non è quasi mai rappresentato nell’atto di farlo.

Come le Femen o le Guerilla Girls hanno ricordato ai direttori di museo attraverso delle performance visuali (il seno nudo usato come una lavagna per le Femen, delle maschere da gorilla per le Guerilla Girls), la donna è stata il soggetto principale del nudo nella pittura europea…ed era ora di interrompere questo sfruttamento del corpo femminile.

 

Aggiungiamo che, nonostante i mezzi della rappresentazione visuale siano cambiati, non lo è il modo di vedere e di dominar il femminile. Questo fatto vuol dire molte cose.

Nel nostro contesto vuol dire che la modernità da ancora per scontato che lo spettatore ideale sia un uomo.

In Gender Advertisements del 1979, Irvin Goffman, nell’analizzare i modi con cui sono usati dalla pubblicità le differenze sociali e di genere, osserva che i generi, per essere più efficaci, sono deliberatamente rafforzati nelle immagini pubblicitarie, finendo per diventare caricaturali.

Un esempio importante, sempre a proposito del potere delle immagini, è il modo con cui la cultura occidentale ha veicolato il concetto di civiltà e di come la fotografia colonialista (spesso spacciata per antropologica) ha diffuso in Europa l’immagine del selvaggio per giustificare e legittimare il razzismo e la violenza colonialista.

Infine, un capitolo a sé è quello dalla visualizzazione delle guerre e dei conflitti – a cominciare da quelli recenti medio-orientali – attraverso un giornalismo embedded, guidato nei suoi reportage da militari esperti in comunicazione e fake new.

Questi esempi dimostrano che il punto di vista è una specie di potere …il potere di affermare il proprio punto di vista, perché vedere equivale a controllare.

Essere visto equivale a essere controllato.

In questa ottica il massimo del potere si situa là dove si può vedere tutto senza essere visto.

Un fatto che ha generato il convincimento che la società dell’immagine è, come dicono gli americani, un grande fratello (big brother).

In ogni modo, la vita corrente nei paesi industrializzati è sempre più controllata dalle telecamere. Da quelle degli autobus a quelle degli shopping malls.

Da quelle delle arterie di traffico a quelle dei bancomat o degli edifici pubblici.

Questo fenomeno – nell’era degli schermi visuali – fa diventare il “punto di vista” un fattore centrale.

Significa che non dobbiamo limitarci all’esame del regime scopico, ma dobbiamo considerare che il potere di visualizzare – dunque, di veicolare dei significati – è un oggetto di negoziazione socioculturale.

Questo perché la visualizzazione non avviene nel vuoto, ma è sempre all’interno di una cultura.

Se è vero che le immagini sono una interpretazione del mondo è anche vero che la cultura dipende dall’interpretazione che i suoi membri danno a ciò che li circonda e al senso che finiscono per attribuire al mondo che abitano.

La questione è: come agiscono le immagini?

Partiamo da una constatazione.

Se è vero che il mondo sta acquisendo – grazie al digitale – una dimensione essenzialmente visuale il problema è che ci sono molte incertezze su ciò che significa visuale.

Molti studi sull’argomento si limitano a riflettere sugli effetti dei media, vale a dire sulla produzioni di immagini che entrano nei processi di costruzione della realtà sociale.

Altri studi si focalizzano sulla realtà virtuale vissuta come se fosse una nuova realtà.

Sono invece carenti gli studi sugli effetti che la dimensione visuale ha sulla vita sociale e sulla produzione della cultura.

In sostanza:

Studi che spiegano come agiscono (e comunicano) le immagini sulla costruzione dei significati. ( dai media ai muri della città, ai corpi, agli oggetti, ai segnali urbani, alla pubblicità, alle vetrine, ai prodotti artistici…)

– Come agiscono sulle norme e i valori.

– Sulla regolazione dell’interazione e dei processi di sociabilità.

– Sull’affermazione delle differenze e delle appartenenze, e sui percorsi di costruzione delle identità.

È un problema complesso perché la visione di un’immagine avviene sempre in un contesto sociale che ne condiziona l’impatto, con la conseguenza che il tipo di visione percepita – in base al contesto sociale – cambia il suo significato, così come il modo di vederla ne modifica gli effetti.

Un conto è vedere un film o una partita di calcio sdraiati in un letto, un conto è vederli in un cinema o sullo schermo in una piazza.

Chi guarda delle immagini, poi, ha un suo modo di guardarle e questo modo cambia i loro significati e le loro dinamiche di negoziazione.

Per comprendere meglio questi punti va tenuto presente che, in termini fenomenologici, le immagini non sono né vere, né false, ma strutture interpretative che dipendono dal modo con le quali si usano e da chi le usa.

Va aggiunto che la natura delle immagini è ambigua e questa ambiguità produce sullo spettatore un impatto emotivo molto forte e spesso violento.

Questa circostanza si verifica soprattutto quando il significato denotativo e il significato connotativo non sono separabili l’uno dall’altro.

acciamo un esempio.

Se osserviamo la fotografia di un bambino del terzo mondo affamato e ammalato (aspetto denotativo)immediatamente non possiamo non pensare a tutti i bambini che muoiono di fame e sono malati (dimensione connotativa).

Roland Barthes, che negli anni ’80 si occupò di questi temi, mise in luce il carattere polisemico delle immagini, vale a dire la molteplicità dei loro significati connotativi che possono essere compensati o dirottati dall’uso delle didascalie che, in chiave gnoseologica giocano il ruolo di un significato denotativo.

Ricordiamo che il linguaggio verbale ha un potere di gestione delle potenzialità espressive delle immagini grazie al fatto che esso possiede un codice connotato basato su una logica razionale, costruito su una grammatica e una sintassi, scomponibile in segni, che rappresentano il suo meccanismo interpretativo.

Al contrario, la polisemia del linguaggio visuale, scrive Barthes, rimanda alla debolezza o alla mancanza di un codice e all’assenza di un contesto interpretativo esplicito.

Questo fa si che il significato di un’immagine è contestuale, soggettivo e interpretabile in molti modi.

Ritorneremo su questo tema quando parleremo delle origini e degli ambiti di ricerca della Scuola di sociologia di Chicago che per prima ricorse alle immagini come strumento di documentazione e di studio, soprattutto per quanto riguarda il lavoro operaio giovanile, la delinquenza di strada, la prostituzione. le periferie urbane e l’immigrazione.

*******************

Procediamo, invece, con la relazione vedere/sapere, partendo da una considerazione: noi tutti siamo immersi nel vedere.

La vista è il senso più usato nel nostro rapporto con il mondo ed è quello che gestisce i nostri rapporti con gl’altri.

Tutte le nostre attività implicano il vedere e fanno della cecità un oggetto d’angoscia, una catastrofe esistenziale.

Perdere la vista significa essere emarginati dal modello culturale organizzato intorno alla vita corrente.

Ancora oggi in moltissime lingue il termine “cieco” è una metafora negativa perché l’accecamento è percepito come una mancanza di lucidità.

Di contro, vedere è capire.

I modi di vedere sono molteplici, si può dire che ispessiscono la significazione, aprendo alle complessità del mondo e colmando le distanze.

L’acutezza dello sguardo ha però i suoi limiti.

Paradossalmente è un senso ingenuo, perché è spesso vittima delle apparenze.

È ingenuo perché quando guardiamo senza il giusto distacco, prendiamo spesso le lucciole per lanterne, perché sa trasformare il mondo in immagini, ma poi non sa distinguerle dai miraggi.

In ogni caso è una condizione essenziale per valutare la realtà, tanto che vedere è credere.

Vedere è ciò che salta agl’occhi, ciò che è e-vidende.

Il verbo vedere deriva dal latino videre, ma alla base di videre c’è veda – io so – che ha la stessa radice indo-europea, da cui deriva evidenza – ciò che è visibile – e provvidenza – che è il prevedere divino, ovvero, l’espressione della sovranità.

Restando agli etimi, in greco la teoria è una contemplazione e il theoros è lo spettatore.

Quanto a speculare, è un verbo che deriva da specula, come un tempo era chiamato il luogo dal quale si osserva.

Lo sguardo appare, in questo contesto, una volontà di sapere, un desiderio di dare un senso.

Così lo sguardo è poiesis, è azione, è bisogno di capire.

Lo sguardo, poi, ha la proprietà di essere tattile, di creare contatti.

I rapporti amorosi così come quelli gerarchici conoscono bene la potenza dello sguardo, nello stesso modo il mondo femminile conosce con fastidio e rassegnazione l’essere osservato e valutato.  

Nelle culture pre-moderne lo sguardo era considerato una forza capace di piegare il mondo al suo volere.

Non per caso, il malocchio (come è detto il potere malefico dello sguardo) è condiviso da numerose culture, come se lo sguardo fosse in grado di pietrificare per poter mantenere il suo controllo sul mondo.

Anche mangiare con gl’occhi non è solo una metafora.

Alcune culture prendono questa metafora alla lettera, perché il vedere è una porta spalancata sul desiderio, un atto che si percepisce, come avvertono le persone che sono spiate.

È di fatto un atto fastidioso che coinvolge sia il soggetto che l’oggetto del desiderio.

Ha scritto Sigmund Freud nei Tre saggi sulla teoria sessuale:

L’impressione ottica costituisce la via attraverso la quale è risvegliato l’eccitamento libidico. … La zona più lontana dall’oggetto sessuale, l’occhio, si trova più spesso di tutte le altre nella condizione di essere stimolata da ciò che noi chiamiamo bellezza.

Tuttavia non occorre conoscere Freud per sapere che l’amore rende ciechi, perché il desiderio deforma e riformula per meglio desiderare.

Nella nostra cultura la bellezza è considerata una virtù e i criteri che la determinano variano secondo le epoche e le culture.

C’è però una costante, subordinano la donna allo sguardo dell’uomo, perché la bellezza è soprattutto un fatto culturale che, a differenza dell’uomo, la donna sa rappresentare.

In generale l’obiettivo dei sensi è produrre senso.

Ma per la vista produrre senso significa imparare a vedere.

Alla nascita il bambino non coglie il significato delle forme che gli stanno intorno.

Poi comincia a discriminarle partendo dal volto della madre.

Qui c’è un paradosso logico perché per riconoscere si deve conoscere.

Per mesi la vista del neonato è meno sviluppata dell’udito e del tatto (con il seno materno).

Poi prende il sopravvento e diviene un elemento fondamentale della sua educazione e del suo rapporto con il mondo, ma per diventarlo è necessario che la parola degli adulti e il senso del tatto la indirizzino.     

Il vedere non è un atto passivo, ma un comportamento attivo.

Quando un oggetto si vede male (per via della distanza, della forma o per le cattive condizioni di visibilità) chi guarda si sposta, strizza gli occhi, si protegge dalla luce diretta per vedere meglio.

In questo modo figure informi possono diventare familiari.

È ciò che sta alla base del test di Rorschach, usato in psichiatria come strumento per catalizzare le fantasie.

Le macchie sulle tavole del test, prive di un significato preciso, vengono offerte all’immaginario del paziente e le sue risposte rivelano le sue preoccupazioni, i suoi desideri, le sue angosce, i suoi incubi.

Diciamo che di per sé queste macchie non significano nulla, è l’individuo attribuisce loro un significato in funzione della sua personalità.

Nel Trattato della pittura Leonardo da Vinci (1452-1519) aveva intuito questo fatto. Scrive:

Se tu riguarderai in alcuni muri imbrattati di varie macchie o pietre di vari colori misti…potrai su di loro vedere similitudine di diversi paesi, profili di montagne, fiumi, alberi, pianure, grandi valli e colli in diversi modi. Ancora vi potrai vedere battaglie e atti di figure, strane arie di volti e abiti e infinite cose, le quali potrai riprodurre.

Per le immagini il significato viene sempre dopo, o meglio, è lo sguardo che fa emergere una Gestalten del guardato.

In questo modo la vista, filtrando ciò che percepisce, rende il mondo pensabile.

Più che un meccanismo di registrazione (la vista) è un’attività di pensiero.

O, semplicemente, gli occhi servono per realizzare un continuo lavoro di costruzione di un senso.

Il filosofo francese Pierre-Maxime Schuhl (1902-1984) in L’immaginazione e il meraviglioso: il pensiero e lo sguardo, ha scritto: Saper guardare è il segreto dei processi gnoseologici.

Cosa significata?

Che prima di vedere occorre imparare a riconoscere i segni del vedere come si fa per una lingua.

Appare scontato, ma la lettura di un’immagine su uno schermo richiede la conoscenza dei codici di percezione.

L’etnocentrismo occidentale si è sempre vantato dell’universalità delle sue concezioni a proposito delle immagini e della prospettiva, attribuendo le difficoltà a comprenderle, da parte di altri gruppi sociali, a una loro inferiorità culturale o intellettuale.

Se in molte culture cosiddette primitive, non abituate alla lettura delle immagini, è difficile operare una distinzione tra finzione e realtà, che dire allora degli spettatori parigini del Grand Café che, nel dicembre del 1895, fuggirono terrorizzati davanti al film dei fratelli Lumière sull’ingresso di un treno nella stazione di La Ciotat in Costa Azzurra?

******************

Come insegna la gnoseologia, la scienza muta la nostra comprensione della realtà in due modi.

Il primo è definito estroverso, perché si riferisce a ciò che ci circonda del mondo materiale.

Il secondo è definito introverso perché riguarda la nostra condizione umana e ciò che siamo o pensiamo di essere.

In quest’ottica esaminiamo tre rivoluzioni, del millennio che ci siamo lasciati alle spalle e che hanno avuto un forte impatto sul mondo e su quello che siamo, trasformando per sempre la nostra storia culturale e il nostro modo di percepirci.  

Fino a sei secoli fa eravamo abituati a pensare di essere al centro dell’universo, messi lì dove eravamo da un dio-padre e creatore onnipotente.

Era una pietosa illusione che ci confortava e ci faceva convivere con l’angoscia generata dalla coscienza del tempo e dalla inevitabilità della morte.

Nel 1543, il matematico e fisico polacco Niccolò Copernico pubblicò un trattato sulla rotazione dei corpi celesti.

Quando questo libro uscì nessuno immaginava che dopo aver scosso il nostro modo di vedere la terra e i pianeti avrebbe dato l’avvio a una rivoluzione sul modo di comprendere noi stessi.

I fatti, però, sono quello che sono.

La sua cosmologia eliocentrica spodestò la terra dal centro dell’universo costringendoci a riconsiderare le nostre opinioni e il nostro modo di rapportarci ad essa, lasciandoci sgomenti.

Dovemmo accettare il fatto che la terra è un piccolo pianeta fragile e nella ragione trovammo la forza per studiarlo. Studio che prosegue ancora oggi con l’esplorazioni spaziali.

La seconda rivoluzione avvenne nel 1859 quando Charles Darwin pubblicò L’origine delle specie.

In questo libro si riassumevano anni di esplorazioni scientifiche sul campo, da cui Darwin dedusse che ogni specie vivente è il risultato di un’evoluzione da progenitori comuni, attraverso un processo di selezione naturale.

In questo modo con Darwin la parola evoluzione acquistò un nuovo significato ritenuto da molti sgradevole e insopportabile. Un significato che molte religioni ancora oggi rifiutano o accettano solo parzialmente.

Tuttavia, sebbene fossimo coscienti di non essere più al centro dell’universo, sebbene avessimo dovuto ammettere di essere poco più che animali, eravamo ancora padroni dei nostri contenuti mentali.

La nostra capacità di autocoscienza, vale a dire di saper elaborare una coscienza di sé, ci dava ancora un posto speciale nell’Universo.

“Penso dunque sono”, aveva affermato Cartesio e l’introspezione era considerata un viaggio interiore alla scoperta di sé.

Ci pensò Sigmund Freud a liquidare questa illusione.

Questa terza rivoluzione mostrò che la mente è inconscia e incontrollabile.

Dimostrò che ciò che facciamo è per lo più il frutto dell’inconscio e che i cosiddetti stati coscienti sono utilizzati per dare una giustificazione razionale alle nostre azioni.

In altri termini, scoprimmo che non siamo liberi neanche nella nostra coscienza.

Questo perché la coscienza ubbidisce più all’inconscio che a noi, svalutando ciò che riteniamo il frutto della volontà.

In ogni modo, dopo queste tre rivoluzioni, ci restava l’intelligenza.

Anche se è una proprietà difficile da definire, ci pone in una posizione di assoluto vantaggio tra le forme viventi.

Con essa abbiamo imparato a costruire macchine, sviluppare progetti e a utilizzare le forme della tecnica.

Blaise Pascal, che visse nella prima parte del XVII secolo, inventò la macchina aritmetica – più conosciuta come la pascalina – con la quale si potevano realizzare la quattro operazioni.

Qui, va notata una circostanza. Il metodo di calcolo inventato da Pascal si basa sui complementi ed è analogo a quello che seguono oggi i computer.

La pascalina ottenne subito un grande successo e influenzò un altro grande matematico e filosofo del XVII secolo, Gottfried Leibniz.


Gottfied Leibniz (Lipsia 1646 – Hannover 1716) è stato un matematico, filosofo, logico, giurista storico e magistrato tedesco di origine soroba o serba.

A lui dobbiamo il termine di funzione che egli usò per individuare le proprietà di una curva.

Assieme a Newton, Leibniz è colui che sviluppo il calcolo infinitesimale e, in particolare, il concetto di integrale.

È considerato il precursore dell’informatica e del calcolo automatico e fu l’inventore di una calcolatrice meccanica detta macchina di Leibniz .

E’ considerato uno dei più grandi esponenti del pensiero occidentale.


Ricordiamo che fu Leibniz a inventare il sistema dei numeri binari e che, per questo è considerato il primo scienziato dei computer.

Tornando a Pascal e in estrema sintesi, pensare era ragionare e ragionare era far di conto.

La sua macchina era in grado di farlo.

In prospettiva posiamo affermare che i germi di una quarta rivoluzione erano stati gettati.

Pascal non poteva immaginare che avremmo costruito macchine in grado di superarci nella capacità di processare informazioni dal punto di vista logico.

Ciò che non era pensabile al tempo di Pascal diventò evidente con il lavoro di Alan Turing, il protagonista della quarta rivoluzione.

Come conseguenza delle sue ricerche, Turing ci ha spodestato dal regno del ragionamento logico e dalla capacità di analizzare grandi volumi di dati, agendo in modo conseguente.

Con il risultato che oggi non siamo più gli indiscussi padroni del mondo dei dati e del loro uso.

La parola computer è a questo riguardo significativa.

Tra la fine del XVII secolo e il XIX era sinonimo di persona che svolge dei calcoli.

Il termine computer infatti è il nome dell’agente del verbo to compute.

L’etimo latino è composto da com / cum (insieme) e da putare (tagliare, rendere netto – da cui anche potare), per estensione, significa: confrontare (o comparare) per trarre il netto della somma.

In sostanza, il termine computer indicava originariamente una persona incaricata di eseguire dei calcoli.

Fu per Turing che, negl’anni ’50 del secolo scorso, la parola computer perse il suo riferimento all’uomo e divenne sinonimo di macchina programmabile, ovvero, di macchina di Turing.

Questa quarta rivoluzione ha messo in crisi il convincimento sulla nostra unicità e ci ha ridisegnato come organismi informazionali (inforg) reciprocamente connessi e, al tempo stesso, parti di un ambiente informazionale (infosfera) che condividiamo con altri agenti naturali e artificiali.

Agenti che processano informazioni in modo logico e autonomo.

Da ciò si può dedurre che, molto probabilmente, la prossima generazione, che abiterà le aree temperate del pianeta, sarà la prima a non considerare più rilevante la distinzione tra ambiente online e offline.

Una distinzione che oggi appare opaca.

In ogni modo, se la nostra casa è dove sono i nostri dati, allora vuol dire che, senza rendercene pienamente conto, viviamo già da tempo su Google Earth o nel cloud.

In informatica con il termine cloud computing (in italiano nuvola informatica) si indica un paradigma di erogazione di servizi offerti su domanda da un fornitore ad un cliente finale attraverso la rete Internet (come l’archiviazione, l’elaborazione o la trasmissione dati), a partire da un insieme di risorse preesistenti, configurabili e disponibili in remoto.

Questo non vuol dire che la rivoluzione digitale ci trasformerà in un’umanità di cyborg.

Un numero di telefono solo nei film si può digitare per mezzo di una tastiera virtuale che appare sul palmo di una mano, più realisticamente lo possiamo comporre pronunciandolo, grazie al fatto che il nostro smartphone ci capisce.

Per comprendere, con una metafora, la logica degli ambienti informazionali dobbiamo pensare al fatto che fin da oggi e in molti contesti le ICT (le tecnologie dell’informazione e della comunicazione) hanno cominciato ad essere la squadra che gioca in casa (nell’infosfera) con noi che giochiamo in trasferta.

*******************

Intorno alla metà del ‘700 in molte città europee si cominciò a numerare, strada dopo strada, le abitazioni in ordine crescente, erano nati i numeri civici.

Più che per problemi postali o dei singoli cittadini questo provvedimento veniva incontro alle richieste del fisco e delle forze dell’ordine per rintracciare e identificare facilmente le persone.

Ci furono, soprattutto nella mitteleuropa, molte proteste di cittadini contrari a questa misura che in alcune circostanze aveva anche un aspetto discriminatorio, come nel caso degli ebrei di Boemia, obbligati a usare per la numerazione delle case i numeri romani anziché quelli arabi.

Non è difficile immaginare i mille sotterfugi che furono inventati, come rompere la targa con il numero, metterla capovolta, così che il sei diventa nove, imbrattarla di vernice o di fango, eccetera.

A Parigi, fu Napoleone che introdusse i numeri civici nel 1805.

Charles Baudelaire – il poeta de I Fiori del male – definì questa numerazione come un’intrusione criminale nella vita quotidiana dei cittadini.

Possiamo aggiungere, non senza un qualche interesse, considerato che era perennemente assediato dai creditori che volevano essere pagati e che lui evitava cambiando in continuazione il suo indirizzo.

Walter Benjamin nel suo Parigi, capitale del diciannovesimo secolo, racconta che nei quartieri proletari questa misura fu subito percepita come repressiva e che gli artigiani – con in testa quelli del fouburg Saint-Antoine – si rifiutarono di usare il numero della loro abitazione come indirizzo.

L’analisi di Benjamin in realtà è più complessa.

Per questo grande saggista europeo anche l’invenzione della fotografia è un punto di svolta nello sviluppo del controllo amministrativo e identificativo, ma è un argomento che dovrebbe essere affrontato in modo specifico.

Le osservazioni sulla nascita della numerazione stradale ci servono per capire meglio l’enorme distanza – tecnica, culturale e politica – che separa questi anni dall’epoca nella quale viviamo.

Un’epoca caratterizzata dalle identità digitalizzate e geolocalizzate.

Possiamo dire che, nella storia dell’umanità, mai come oggi si è stati in possesso di una quantità così enorme di informazioni immagazzinate sui fenomeni e i comportamenti sociali.

Informazioni, che tra l’altro, continuano ad affluire incessantemente nell’area dei Bigdata.

Come è noto da almeno una generazione, con piccole quantità di dati, algoritmi e macchine di analisi, siamo in grado di estrapolare informazioni mirate, ma i Bigdata hanno reso obsoleto questi metodi mettendoci nella condizione – inedita – di possedere una quantità di dati maggiore di quella che i mezzi più accessibili ci permettono di gestire.

Vediamo qualche grandezza.

Nel 2000 – l’anno di nascita dei nativi digitali – le informazioni registrate erano per il 25 per cento supportate da un formato digitale e per 75 per cento contenute su dispositivi analogici (carta, pellicola, nastri magnetici, ecc…)

Nel 2013 le informazioni digitalizzate erano stimate intorno ai 1200 exabyte, vale a dire erano il 98 per cento, mentre quelle analogiche si erano ridotte al 2 per cento.

La mole delle informazioni digitalizzate fino ad oggi è tale che se le stampassimo su carta coprirebbero una superficie grande come sessanta Stati Uniti.

A parte il volume delle informazioni c’è da considerare che questi dati fanno capo a pochissimi soggetti, sono di fatto concentrati in pochissime mani.

Cosa vuol dire?

Che Facebook – per fare un esempio – possiede oggi il più grande insieme di dati mai assemblati sul comportamento sociale delle persone.

CHE, con molta probabilità, ALCUNE DELLE NOSTRE INFORMAZIONI PERSONALI NE FANNO PARTE ed altre, proprio in questo momento, vi stanno confluendo.

***************

C’è una correlazione importante che si sta sviluppando tra le ICT digitali (tecnologie dell’informazione e della comunicazione)  e quella che in filosofia è chiamata la coscienza del sé.

L’espressione ITC indica l’uso della tecnologia nella gestione e nel trattamento dell’informazione, specie nelle grandi organizzazioni.  

In particolare riguarda l’uso di tecnologie digitali che consentono all’utente di raccogliere, creare, memorizzare, scambiare, utilizzare e processare informazioni (o “dati”) nei più disparati formati: numerico, testuale, audio, video, immagini e molto altro.

Ricordiamo, in sintesi, qual è il ciclo dell’informazione:

Generare – Raccogliere – Registrare e immagazzinare – Processare – Distribuire e trasmettere – Usare e consumare – Riciclare e cancellare.

Torniamo in argomento questa correlazione coinvolge sia il nostro modo di confrontarci con l’Altro da noi, che il nostro modo di relazionarci al mondo o, meglio, alla natura materiale delle cose.

Oramai è un dato di fatto. Da almeno una ventina di anni, grazie al digitale, siamo circondati (molti dicono immersi) “da – e – in” nuovi e inediti geo-scenari sociali e culturali, con importanti risvolti economici e politici.

Facciamo qualche esempio.

– Siamo circondati dalle nanotecnologie.

Le nanotecnologie sono un ramo della scienza applicata alla tecnologie che si occupano del controllo della materia su una scala dimensionale nell’ordine del nanometro, ovvero un miliardesimo di metro e dalla progettazione e realizzazione di dispositivi in tale scala.

– Siamo inseriti nell’internet delle cose.

Nelle telecomunicazioni l’internet delle cose è un neologismo riferito all’estensione di internet al mondo degli oggetti e dei luoghi concreti.

– Siamo immersi dal Web semantico.

Con Web semanticoun termine coniato dallo scienziato inglese Tim BernersLee – si intende la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini, ecc…) sono associati ad informazioni e a dati che ne specificano il contesto semantico in un formato adatto all’interrogazione e all’interpretazione.

In questo modo, con l’interpretazione del contenuto dei documenti da parte del Web semantico saranno possibili sia ricerche più evolute delle attuali – basate oggi sulla presenza nel documento di parole chiave – sia operazioni specialistiche, come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice collegamento ipertestuale.

– Ancora, siamo utenti del cloud computing.

Una tecnologia che, abbiamo già visto, consente di usufruire, tramite un server remoto, di risorse software e hardware (come le memorie di massa per l’archiviazione di dati), il cui utilizzo è offerto come servizio da un provider tramite abbonamento.

– Possiamo usufruire di giochi basati sul movimento del corpo.

– Di applicazioni per gli smartphone, per i tablet, per il touch screen.

– Abbiamo la possibilità di usufruire del GPS, un sistema di posizionamento satellitare che permette in ogni istante di conoscere la longitudine e la latitudine di un oggetto o di una persona.

Ricordiamo che i dispositivi muniti di un ricevitore GPS sono tantissimi: navigatori satellitari, smartphone, tablet, smartwatch, solo per citarne qualcuno.

GPS è l’acronimo di Global Positioning System. Si tratta di un sistema per il posizionamento globale.

Grazie al GPS è possibile localizzare oggetti e persone.

Il tutto avviene tramite i satelliti che stazionano nell’orbita terrestre e conentono di conoscere in ogni istante l’esatta ubicazione di un luogo.

La localizzazione è possibile perché i satelliti contengono un orologio atomico che calcola al millesimo di secondo il tempo che passa tra la richiesta effettuata dal ricevitore GPS e le risposte ottenute dai satelliti stessi.

– Non da ultimo, siamo immersi nella realtà densificata.

Una realtà abitata da droni (vale a dire oggetti volanti radiocomandati), auto che si guidano da sole, stampanti 3D, social media, cyber-armi, eccetera.

Sono tutti argomenti che costituiscono un terreno di polemiche tra tecnofili e tecnofobici, che alimentano un’ampia discussione tra coloro che si domandano che cosa non riusciamo o non ci e consentito di comprendere e che cosa si nasconde dietro tutto questo.

Soprattutto, possediamo una prospettiva ermeneutica (una conoscenza) per comprendere e controllare tutto questo?

La difficoltà maggiore è riuscire a capire quanto queste tecnologie sono estese e come hanno potuto in così breve tempo diventare forze ambientali, antropologiche, politiche, sociali e, non da ultimo, culturali, vale a dire, capaci di interpretare e di trasformare il qui ora dell’esistenza.

 Queste nuove tecnologie, a differenza di quelle arcaiche (analogiche), hanno la capacità:

– di creare e plasmare la realtà fisica e intellettuale,

– di modificare la nostra capacità di giudizio,

– di cambiare il nostro modo di relazionarci con gl’altri,

– di modificare la nostra Weltanschauung,

– ma soprattutto, a differenza di quelle arcaiche o analogiche, sono in grado di fare tutto questo in modo pervasivo, profondo e continuo.

In conclusione, volenti o nolenti – noi globalizzati – ci troviamo a vivere nell’infosfera all’alba di un millennio che ancora non comprendiamo.

I punti critici sono noti.

Saremo capaci di ottenere il massimo dei vantaggi e il minimo degli svantaggi dalle ICT?

Saremo preparati ad anticiparne i rischi dal punto di vista della vita corrente?

Avremo la necessaria competenza per affrontare i pericoli che corriamo nel trasformare il mondo in un ambiente sempre più digitale?

In linea generale, da subito e a ragione della loro natura, queste tecnologie ci costringeranno dentro spazi fisici sempre più inconsistenti e concettualmente sempre più limitati.

Ma perché è necessario saper rispondere a questi interrogativi?

Sostanzialmente perché le novità non danno più vita a delle fratture nella continuità storica che siano facilmente e a breve termine comprensibili, ricomponibili o assorbibili.

In linea di massima per comprendere queste novità abbiamo bisogno di una nuova filosofia della natura e della storia, di una nuova antropologia e di una nuova scienza della politica.

Diciamo che ripensare il presente e pensare il futuro in un mondo sempre più digitalizzato richiede una nuova filosofia dell’informazione.

Come sappiamo la forma storica della società dell’informazione ha le sue radici nella scrittura e nell’invenzione della stampa e dei mass media.

Cioè nella capacita di REGISTRARE e di TRASMETTERE.

Oggi, con il digitale questa società si è evoluta con una nuova capacità, quella PROCESSARE.

Una capacità che, paradossalmente, ha contribuito a generare nuove forme di DEFICIT COGNITIVI.   

I paesi del G7 – Canada, Francia, Germania, Giappone, Gran Bretagna, Italia, Stati Uniti – e la Cina (in realtà questi paesi sono molti di più, dovremmo aggiungere almeno la Russia europea, l’Australia, la Corea del Sud e molto presto l’India), costituiscono quella che si chiama una società dell’informazione.

Perché?

Perché più del settanta per cento del PIL (cioè del loro prodotto interno lordo, un indice che misura il livello dei beni e servizi di una nazione, anche se non rappresenta il benessere) dipende da beni intangibili – vale a dire che concernano l’informazione – e non da beni materiali, come sono quelli del settore agricolo e manifatturiero.

***********************

Vediamo alcuni temi, a partire dalla definizione di algoritmo, legati all’infosfera.

L’algoritmo è un processo logico-formale che si struttura articolandosi in una serie di passaggi logici elementari.

Questo processo conduce a un risultato, definito da un numero finito di passaggi.

(L’espressione di algoritmo deriva dalla latinizzazione del nome del matematico persiano Muhammad ibn Musa al-Khwarizmi, vissuto nel nono secolo dell’era comune.)

Lo schema logico di un algoritmo si può esprimere con la forma if / then – SE/ALLORA.

Nel mondo che viviamo, anche se non abbiamo una conoscenza degli algoritmi, sappiamo che ogni passaggio logico di un ragionamento comporta una decisione che influenzerà il passaggio successivo.

C’è un gioco che illustra questo. E’ la morra cinese.

Per vincere a questo gioco i passi elementari possibili sono tre:

Se sasso, allora carta. Se carta, allora forbice. Se è forbice, allora sasso.

Fatte le debite proporzioni, i computer che giocano a scacchi operano nello stesso modo.

A ogni mossa che facciamo un algoritmo cerca le contro-mosse possibili, valuta le possibilità e seleziona la migliore, anche se il programma – non dimentichiamolo – non ha la più pallida idea di che cosa sono gli scacchi.

L’importanza degli algoritmi (cioè di questi processi logico-formali) è esplosa con la nascita dell’informatica.


L’informatica è la scienza che studia l’elaborazione delle informazioni e le sue applicazioni.

Più precisamente, l’informatica si occupa della rappresentazione, dell’organizzazione, del trattamento automatico dell’informazione.

Il termine deriva dal francese informatique (composto di INFORMATion e automatIQUE, informazione automatica) coniato da Philippe Dreyfus nel 1962.

L’informatica è una scienza indipendente dal computer che ne è solo lo strumento, ma è facile capire che lo sviluppo dell’informatica è stato ed è tuttora strettamente legato all’evoluzione del computer.

Pur avendo radici storiche antiche l’informatica si è sviluppata come disciplina autonoma solo a partire dagli anni ’60 del secolo scorso, sulla spinta innovativa dei sistemi di elaborazione e del progresso nella formalizzazione del concetto di procedura di calcolo, che possiamo far risalire al 1936, quando Alan Turing elaborò un modello di calcolo oggi noto come macchina di Turing.


Dunque, in linea generale possiamo dire che i computer, i tablet, gli smartphone e gli oggetti connessi sono costruiti secondo uno schema teorico chiamato macchina di Turing.

In realtà questa macchina non è un oggetto, ma un concetto logico astratto elaborato dal matematico inglese Alan Turing.

Si compone di due parti.

– La prima parte è capace di interpretare una famiglia di algoritmi.

– La seconda è capace di immagazzinare i dati ai quali questi algoritmi si applicano o che da loro si ottengono.

Così, dal punto di vista dell’informatica, un computer non è altro che la realizzazione fisica di una macchina di Turing.

In questa macchina i dati sono scritti su una memoria – l’hard disk – e processati da circuiti logici chiamati processori.

Questi processori sono la parte della macchina che è capace di compiere i passaggi logici, come estrarre i dati immagazzinati nella memoria, interpretarli ed eseguire le istruzioni ricevute.

In pratica, qualsiasi programma che fa funzionare un computer o che può essere fatto funzionare da un computer non è altro che un complesso di algoritmi.

Non è difficile comprendere come alla base di tutti questi processi c’è un problema, la velocità di calcolo.

L’aumento importante delle capacità di calcolo dei processori ha permesso oggi di poter far funzionare, su macchinaadhoc, algoritmi sempre più complessi, vale a dire dipendenti da più variabili.

La rete, di contro, ha permesso di mettere insieme una moltitudine di enormi database che nutrono questi algoritmi.

Ci sono vari tipi di algoritmi.

I due più popolari sono gli algoritmi di ottimizzazione, che cercano la soluzione che minimizza o massimizza una funzione.

Gli algoritmi probabilistici, molto diffusi grazie alla possibilità che hanno di trattare grandi masse di dati (i Big Data).

Big data è un termine adoperato per descrivere l’insieme delle tecnologie e delle metodologie di analisi di dati massivi.

Il termine indica la capacità di estrapolare, analizzare e mettere in relazione un’enorme mole di dati eterogenei, strutturati e non strutturati, per scoprire e portare alla luce i legami tra fenomeni diversi e prevedere quelli futuri.

Gli algoritmi probabilistici sono detti anche predittivi, in quanto sono strumenti capaci di prevedere la probabilità dell’insorgenza di un evento – come sono, per fare qualche esempio conosciuto, le epidemie di influenza, il diffondersi di malattie infettive, gli ingorghi stradali o l’esplodere di crisi finanziarie.

I suggerimenti per gli acquisti che troviamo sulla schermata di un computer (ti potrebbe interessare anche… oppure, sono spesso comprati insieme, ecc…) si basano sulla stessa logica algoritmica, essi analizzano gli eventi, come sono le visualizzazioni, i click o gli acquisti correlati a specifici individui.

C’è un problema etico che è ben illustrato da questa storia vera.

Target – una società americana di vendite per corrispondenza  – fa affidamento sull’analisi dei profili di acquisto di venticinque prodotti al fine di assegnare a ciascun acquirente femmina un tasso chiamato previsione di gravidanza.

Questa profilazione stima la data del parto e invia dei coupon per l’acquisto scontato di prodotti correlati ai diversi stadi della gravidanza.

Ciò causò seri problemi di privacy finiti in tribunale allorché i coupon furono inviati a una famiglia la cui figlia – liceale – non aveva informato i propri genitori del suo stato.

Ritorniamo al tema degli algoritmi.

Possiamo distinguere tre serie di passaggi articolati.

– Quello dei dati in entrata – input.

– Quello dell’algoritmo propriamente detto – che realizza l’elaborazione.

– E quello dei dati in uscita – output.

Ricordiamo che un computer opera esclusivamente o sui dati digitali che esso stesso ha generato in maniera digitale o sui dati che sono stati digitalizzati.

Si tratta di sequenze di bit, indicate con le cifre 0 (zero) 1 (uno) che corrispondono alla presenza o all’assenza di un determinato livello di tensione elettrica all’estremità dei transistor che compongono un computer.

*************************

Vediamo meglio un aspetto dei Big Data.

Come abbiamo accennato rappresentano un insieme di dati quantitativamente enorme, molto vario e in continua e rapida evoluzione.

Il concetto di Big Data nasce alla fine del secolo scorso in corrispondenza all’aumento esponenziale della capacità di trattamento e di salvataggio dei dati che rese disponibile grandi quantità di informazioni sotto forma digitale.

L’unità che misura il volume dei Big Data è il petabyte che rappresenta un milione di gigabyte.

Proviamo a valutare la grandezza di un petabyte.

Una foto in alta definizione occupa cinque millesimi circa di un gigabyte quindi un petabyte può contenere 200 milioni di foto o 250mila pellicole cinematografiche masterizzate in dvd.

Il DVD, sigla di Digital Versatile Disc, originariamente Digital Video Disc, è un supporto di memoria di tipo disco ottico, in via di sparizione.

Un esempio di Big Data sono le informazioni collezionate in tempo reale dai social network, dai grandi mercati online o mediante le applicazioni che usiamo sui nostri telefoni.

Sono, come si può intuire, un’enorme massa di dati acquisiti velocemente e con varie tipologie, quali:

– La localizzazione.

– Il sistema operativo.

Tra queste tipologie ricordiamo:

– Il plugin, cioè, il modulo aggiuntivo di un programma, utilizzato per aumentarne le funzioni.

Il plugin in campo informatico è un programma non autonomo che interagisce con un altro programma per ampliarne o estenderne le funzionalità originarie.  

Ad esempio, un plugin per un software di grafica permette l’utilizzo di nuove funzioni non presenti nel software principale.

– Le preferenze del nostro navigatore.

– Le pagine visitate e il tempo passato su di esse.

– Le foto e i video selezionati.

– I contatti e le e-mail.

– Non da ultimo, le ricerche.

A questo va poi aggiunto tutto il contenuto testuale, audio, video e fotografico postato o condiviso sulla nostra bacheca.

Ci sono poi molti casi di raccolta dei dati utilizzati nel campo della sicurezza e del controllo sociale.

Per fare un esempio, gli algoritmi di riconoscimento facciale – sempre più numerosi nelle stazioni ferroviarie, negli aeroporti in luoghi urbani sensibili – si basano sulla capacità di stoccare e di analizzare in tempi brevi i flussi di dati provenienti da telecamere istallate in questi luoghi o da foto postate su un qualsiasi social network o sito web.

Tra le opportunità più note dei Big Data ricordiamo il deep learning e gli algoritmi predittivi.

Il deep learning (apprendimento profondo) – su cui ritorneremo – è una forma di intelligenza artificiale costituito da algoritmi che consentono a una macchina di prendere decisioni, operando sulla possibilità di far convergere tecniche di calcolo con un’alta probabilità di correttezza o di affidabilità.

Gli algoritmi predittivi, invece, sono algoritmi che permettono di stimare la probabilità di realizzazione per un determinato evento a partire dalle condizioni misurate in un dato momento.

Sono, oggi, molto usati nella prevenzione di diverse specie di malattie a sviluppo lento.

Il cuore della predittività sta nella possibilità di correlare tra di loro eventi fisici di varia natura.

Un esempio negativo e sottovalutato è questo.

Associati alle leggi della fisica gli algoritmi predittivi consentono, con una precisione definita cinicamente chirurgica, di calcolare dove esploderà un missile, conoscendone la potenza, la quantità del propellente, l’alzo del carrello di lancio e il peso, più altri dati contingenti legati al territorio.

Abbiamo poi quello che si definisce un approccio statistico quando la correlazione non viene dedotta dalle leggi della fisica, ma estratta per inferenza da un insieme di dati.

L’inferenza (in generale) è una deduzione intesa a provare o a sottolineare una conseguenza logica.

L’inferenza statistica (o statistica inferenziale), invece, è il procedimento per cui si deducono le caratteristiche di una popolazione dall’osservazione di una parte di essa (detta “campione“), selezionata mediante un procedimento casuale.

In linea generale, più grande è il campione più alta è la probabilità che le correlazioni osservate statisticamente riflettano la legge che regola il comportamento del fenomeno in questione.

È facile comprendere come la novità rappresentata dai Big Data consente di migliorare gli algoritmi predittivi, anche grazie a metodi di deep learning, rendendo questi algoritmi sempre più performanti.

Sul piano sociologico, tra i molti dubbi e problemi che si possono avere sugli algoritmi predittivi, quello che qui importa sottolineare è la questione etica o più in generale politica, perché l’analisi e lo sfruttamento dei Big Data è in mano a pochi grandi gruppi industriali e militari.

Moralmente il problema sta nel fatto che nessuna organizzazione scientifica o politica è messa nella condizione di controllare le inferenze realizzate e le conclusioni o i risultati raggiuntia.

Se vogliamo una corrispondenza, possiamo dire che i Big Data assomiglino a delle forme oracolari pseudo-scientifiche a cui è comodo affidarsi, sia sul piano economico, perchè sono relativamente convenienti, sia per evitare la ricerca e la formulazione di teorie da verificare, molto più onerose, lente, con costi di personale altissimi.

In altri termini, c’è la tendenza al usare i Big Data invece che per avanzare delle tesi o cercare delle verifiche in campo scientifico, per convincere senza dimostrare, partendo dal presupposto che i dati parlano da sé e che è sufficiente saperli interrogare e ascoltare.

La caratteristica dei dati – oltre alla loro quantità – sta nel fatto che essi provengono da fonti diverse e sono “estratti” con metodi diversi.

In questo modo alla fonte costituiscono un dataset complesso e destrutturato, che richiede, per essere usato e sfruttato, elevate capacità di calcolo e di efficienza algoritmica.

Va aggiunto che i dati non provengono solo dagli addetti ai lavori, ma anche dalle azioni quotidiane di milioni di utenti digitali, che non ne sono consapevoli o non se ne rendono conto.

Tutto questo va considerato tenendo presente il carattere pervasivo (nel senso che tende a diffondersi in più di un campo di applicazione) delle nuove tecnologie.

Tecnologie delle quali non siamo capaci – tenendo conto di chi le possiede – di immaginare gli scenari che elaborano e gli scopi di utilizzo, anche se possiamo immaginarli. Per esempio a scopo politico, in periodo elettorale

Non per caso molti sociologi parlano di una dittatura planetaria degli algoritmi che nella sostanza finisce per favorire le disparità economiche e i soprusi socio-politici.

La polizia di Los Angeles, per esempio, sta da qualche tempo a questa parte implementando un programma chiamato Predpol che grazie all’analisi dei dati dovrebbe riuscire a prevedere i crimini o le circostanze criminose.

Per ora i risultati non sono stati soddisfacenti.

Sono risultati molto spesso compromessi dai pregiudizi razziali che hanno accompagnato la raccolta dei dati, ma torneremo su questo importante tema dei bias.

Implementare, dall’inglese (to) implement, è un neologismo che si usa quando un programma si rende eseguibile attraverso la formalizzazione dell’algoritmo o, più in generale, si realizza una procedura, partendo dalla sua definizione logica.

La digitalizzazione (e quindi l’automazione dei processi di controllo) richiede capitali enormi che la rendono un’attività altamente selettiva e qualificata.

Oggi, il danno più grave indotto dalla digitalizzazione lo si verifica nella precarizzazione del lavoro cultuale e cognitivo individuale.

In altri termini la digitalizzazione rende sempre più simbiotico il rapporto tra mente e macchina e accentua l’importanza del lavoro di gruppi eterodiretti.

Ma c’è di più.

La sentimental analysis data mostra come l’estrazione dei dati che determinano i flussi è un lavoro complesso e molto lungo che produce un importante plusvalore.

Nella terminologia marxiana il plusvalore è la differenza tra il valore del prodotto del lavoro e la remunerazione dei lavoratori, differenza della quale, nei regimi capitalisti, si appropriano esclusivamente gli imprenditori.

Questo plusvalore, nel digitale, si forma non solo a partire dal singolo individuo, ma dal valore aggiunto di milioni e milioni di corpi e di menti messi in relazione.

Ricordiamolo:

NELLA CULTURA DIGITALE SE NON PAGHI, IL PRODOTTO SEI TU!

Facebook e Google sono gratis, ma solo per il fatto che a lavorarci siamo anche noi quando li usiamo.  

È una sorta di neopotere, caratteristico delle piattaforme, che ha dato vita a un nuovo potere politico ed economico.

Un neopotere con le sue policy di utilizzo, che di fatto tendono a modificare o a trasformarsi – con sempre maggior frequenza – in leggi o in scontri sopranazionali.

Con l’espressione di policy si indica un insieme di azioni o di non azioni poste in essere da soggetti pubblici – privati o istituzionali – correlate ad un problema collettivo.

In italiano chiamiamo con l’espressione di politica sia l’attività di politics che di policy.  

Queste piattaforme, grazie alla loro tecnologia, forniscono servizi basati su standard che spesso sono superiori a quelli dei servizi classici – sia privati che pubblici – innescando, senza che ce ne rendiamo conto, processi di privatizzazione consensuale, silenziosi e inavvertiti.

Questa è anche la ragione per la quale quelli che controllano il web fanno di tutto per imporsi nella ricerca scientifica e controllare la formazione.

Ma questa è anche la causa di un conflitto in atto e sempre più cruento sul piano legislativo e finanziario – inedito nella storia moderna – tra gli Stati nazionali e le piattaforme transnazionali.

Come nel recente caso di Google in alcuni paesi europei.     

C’è da aggiungere che – in virtù della sua deterritorializzazione – si è anche sviluppata una sorta di paradossale etica hacker che possiamo definire anarco-capitalista e che ha come obiettivo un mercato digitale libero da ogni regolamentazione.

A parte questo, non va dimenticato che l’enorme capacità di calcolo e di elaborazione dei dati consente alle grandi multinazionali dell’informatica di fornire analisi in qualunque settore della conoscenza, potendo attingere non solo alle risorse del proprio database, ma anche alle fonti ad accesso libero.

In questo modo la produzione di dati a mezzo di dati fa si che la volontà di offrire piattaforme aperte è più che altro una forma avanzata di capitalismo travestito da buonismo, nel quale il lavoro individuale si muta in una opportunità di contribuire al loro progresso…quello delle piattaforme!

Questo avviene perché il meccanismo che sta alla base delle nuove forme di intelligenza artificiale è il cosiddetto apprendimento automatico o machine learning.

Per semplificare, mentre nell’algoritmica classica la macchina esegue determinati compiti prefissati da un ordine, nel machine learning l’algoritmo si nutre in modo autonomo di dati che costituiscono la sua materia prima.

Facciamo un esempio, se vogliamo creare un programma che sappia distinguere le foto degli asini da quelle dei cavalli, occorre metterlo in condizione di esaminare un enorme dataset di immagini di asini e di cavalli.

L’algoritmo studierà queste foto contrassegnate da un etichetta che li distingue “riequilibrandosiin continuazione in modo da commettere sempre meno errori possibili di riconoscimento.

Alla fine sarà in grado di distinguere, con buona approssimazione, un asino da un cavallo, ma quello che appare sorprendente, anche se non lo è, da una foto che non ha mai visto.

L’importanza e la delicatezza di questo processo è che può essere applicato a qualunque cosa inerte o vivente.

Sia esso il software per riconoscere una traccia musicale, sia esso un programma per identificare una persona partendo da come cammina o da come parla.

L’unica cosa di cui abbiamo bisogno è un dataste, sufficientemente grande, di informazioni adatto al contesto.

Lo stesso processo può poi essere applicato al sentiment analysis data, ovvero, a quei sistemi sviluppati per determinare il livello di “positività” o di “negatività” di un testo.

Un’analisi importante sia nel mondo della pubblicità commerciale, come in quello della politica che della diplomazia.

*************************

Andiamo avanti.

Non va mai dimenticato che siamo noi, nessuno escluso, produttori di dati e di relazioni che entrano in modo sempre più diretto nei processi di accumulazione capitalista legati ai Big Data o per via di espropriazione o per via di assoggettamento.

Come abbiamo visto è stato Leibniz il primo a cercare di elaborare un modello logico capace di risolvere con un calcolo qualunque problema.

Oggi, per gli ingegneri della Silicon Valley, ma soprattutto per i proprietari dei Big Data e delle macchine di calcolo, questo è un mito che appare se non vicino, perlomeno pensabile.

Un po’ di cronaca.

Nel 2008 su Wired fu pubblicato un articolo di Chris Anderson che annunciava l’era dei Petabyte.

Ricordiamo che il Petabyte è un’unità di misura dell’informazione o della quantità di dati.

Il termine deriva dalla unione del prefisso peta con byte e ha per simbolo PB.

Il prefisso peta deriva dal termine greco penta e sta ad indicare 1000 alla quinta.

Perché sono importanti i Petabyte?

Perché hanno reso obsoleto molti aspetti del metodo scientifico classico, come l’elaborazione di modelli teorici, sostituendoli con l’analisi delle grandi masse di dati.

Perché hanno creato una nuova forma di fiducia verso gli algoritmi e la correlazione statistica delegando – di fatto – alla macchina la capacità di analisi, indipendentemente dalla loro obiettività.

In pratica, gli algoritmi valutano l’efficacia dei manager o degli insegnanti.

Come investire in borsa.

Quando ci ammaleremo e, con buona approssimazione, perché.

Ci ricordano cosa ci piace, quale musica ascoltare, quali libri acquistare.

Dov’è la zona oscura? Il loro potere incontrollato?

Sostanzialmente nel fatto che l’algoritmo, in ultima analisi tende a diventare il nostro mentore, il nostro esperto, il nostro giudice.

Per dirla in maniera più tecnologica l’algoritmo apprende, elabora, confeziona una “scatola nera” capace di valutazioni. Capace di fornire risultati, senza che il programmatore sia a conoscenza dei criteri che portano al risultato finale.

Perché questo processo interessa alla sociologia?

Perché, oggi, per le ragioni più svariate, nella fase di apprendimento la macchina si appropria anche dei bias, cioè delle distorsioni e degli errori che potrebbero trovarsi nel dataset di partenza.

È, questo proposito, un caso di scuola il caso di Tay, il Twitterbot di Microsoft che fu ritirato perché si configurò con bias antisemiti.

In informatica il significato di bot (da robot) si è trasformato nel tempo.

Inizialmente indicava un software usato per svolgere automaticamente attività ripetitive su una rete, ad esempio un mailbot risponde con messaggi automatici a e-mail inviati a uno specifico indirizzo di posta elettronica.

Oggi il bot descrive anche programmi che possono interagire in modo automatico con i sistemi o gli utenti, come i bot sui social che simulano persone reali.

bot di Twitter (Twitter bot) gestiscono in modo automatico gli account e sono programmati per comportarsi come utenti umani: seguono altri account, ri-twittano e generano automaticamente contenuti e se malevoli possono anche diffondere notizie false e sfruttare hashtag e parole chiave degli argomenti più popolari per inserirsi aggressivamente in scambi tra persone reali e provocarne le reazioni.

Molti esperti di comunicazione americani sospettano che dei Twitter bot malevoli siano intervenuti e modificato in modo significativo il risultato delle ultime elezioni presidenziali americane.

In altri termini, il problema – pericoloso, anche se in questo momento di difficile realizzazione – è quello di una pseudo-oggettivazione del giudizio.

Infatti, al pari di un qualsiasi individuo – le cui capacità di analisi e di valutazione sono influenzate dalla sua cultura e da ciò che gli è capitato di vivere – l’algoritmo di machine learning si sviluppa apprendendo.

Per questo le scienze sociali hanno cominciare a considerare con attenzione le implicazioni politiche di questo congegno, ovvero di come un dataset possa essere confezionato ignorando le minoranze etniche, culturali, politiche e sottovalutando le diversità o le circostanze.

Su questo tema, va aggiunto, sono ancora relativamente poche le ricerche che analizzano l’operato delle macchine che si nutrono di opinioni e gusti che riflettono l’opinione dominante e, allo stesso tempo, sono in grado di dar vita a una retorica che appare oggettiva.

Come sostengono gli scettici: Gli algoritmi di deep learning riflettono l’intelligenza o la stupidità di un programma, così come le loro opinioni.

Per questo finiscono o sono indirizzati a confondere le correlazioni con la causalità, cioè, con le relazioni di causa/effetto.
Prima di concludere, vanno sottolineate due cose.

– La prima mostra come lo scontro tra apocalittici e integrati, nell’ambito delle nuove tecnologie digitali, appare, oggi, soprattutto come un conflitto emotivo legato alla sensibilità culturale.

Di contro, occorre considerare che la tecnologia digitale è una realtà autonoma e quindi non va sottovalutato il fatto che essa è, da una parte, modellata sui rapporti di proprietà e di produzione, dall’altra dipendente dalle relazioni tra i poteri e le loro logiche.

Un esempio di scuola che risale al primo secolo prima dell’era comune può essere illuminante.

In questo secolo il matematico Erone di Alessandria concepì una specie di macchina a vapore che se sviluppata avrebbe potuto anticipare la tecnologia a vapore di almeno diciotto secoli.

Questa macchina, però, non trovò nessuna applicazione pratica perché la grande quantità di schiavi a disposizione rendeva superfluo studiare questa tecnologia.

– La seconda cosa è che il mito della neutralità algoritmica discende dal mito della neutralità scientifica.

In realtà come da tempo ha mostrato la teoria critica della società ci sono condizionamenti reciproci tra scienza e i rapporti sociali di produzione.

Il concetto di neutralità, in questo contesto, appare come una forma particolare di feticismo che attribuisce a proprietà oggettive, proprie dei prodotti dell’attività intellettuale e manuale degli uomini, ciò che discende dai rapporti sociali che tra di essi intercorrono.

En passant.

Molti sociologi, a proposito di algoritmi, denunciano l’esistenza di un’autorità algoritmica sull’informazione e la conoscenza.

Parlano di algocrazia (potere degli algoritmi) sul mondo del lavoro, così come di identità algoritmiche, calcolate in modo bio-politico, e assegnate, a loro insaputa, agli utenti dei social media.

Queste circostanze rivelano una preoccupazione sulle conseguenze politiche sociali e culturali del digitale, ma soprattutto sulla trasparenza dei processi computazionali.

Secondo molti sociologi americani la cultura americana sta scivolando progressivamente verso una  algorithmic culture caratterizzata da un forte determinismo tecnologico.

Per semplificare al massimo quello che preoccupa in questo momento le scienze sociali non è l’input – i Big data estratti dall’attività di miliardi di consumatori – né l’output, ma la non trasparenza che sta nel mezzo.

Vale a dire le righe di codice che guidano il processo con cui gli algoritmi on line lavorano i dati sui comportamenti degli utenti.

Algoritmi che, abbiamo rilevato più volte, rappresentano – insieme ai Dataset – un investimento  che viene custodito con grande cura e segretezza perché gran parte dei ricavi di colossi come Netflix e Amazon derivano proprio dai suggerimenti automatici che acquisiscono.

In sostanza, anche se molti degli algoritmi delle nostre tracce digitali sono disegnati da aziende private per scopi soprattutto commerciali, le conseguenze, sono pubbliche e spesso inquietanti.

Il caso di scuola è quello del recommender algorithm di Amazon che in piena stagione di terrorismo suggeriva le componenti per fare una bomba artigianale in quanto “spesso comprate insieme”.

In questo aneddoto – tragicamente vero – per riprendere un’espressione di Hanna Arendt, sta quella che si potrebbe chiamare la banalità dell’algoritmo.

Uno strumento che appare semplice e apparentemente neutrale, che si limita a eseguire gli ordini, ma che può produrre con la sua cecità cognitiva esiti indesiderati e devastanti.

************************

Profilazione Digitale.

Premessa.

Il concetto di identità personale si riferisce all’insieme delle caratteristiche di un individuo, ed è il campo sul quale agisce l’autodeterminazione.

Vale a dire, l’identità personale è auto-costruita e deriva dal processo di identificazione con uno o più modelli proposti dall’ambiente familiare e da quello socio-culturale e politico in cui l’individuo si trova a vivere.

Va anche sottolineato che l’identità per sua natura non può che essere molteplice e meticciata.

L’idea di un identità pura e statica è un’illusione razzista.

L’identità digitale, invece, è la rappresentazione di un individuo.

Un’identità identificabile da coloro che creano e usano i Dataset (cioè le collezioni di dati) in cui questa identità è memorizzata.

In sintesi, una persona digitale è la rappresentazione digitale di un individuo reale.

Una sorta di persona astratta che può essere connessa se non addirittura sovrapposta all’individuo reale e che è costituita da una quantità di dati sufficiente per essere usata in numerosi ambiti specifici.

In pratica si struttura come una delega di cui si può essere più o meno coscienti o, nella stragrande maggioranza dei casi, si realizza a nostra insaputa.
Roger Clarke, un esperto di cultura digitale australiano, ha distinto due tipi di identità digitale: quella progettata e quella imposta.

La progettata è costruita dallo stesso individuo, che la trasferisce ad altri per mezzo di dati.

Ad esempio: con la creazione di un Blog personale o di una pagina personale su un social network, o luoghi digitali simili.

Quella imposta è quella proiettata sulla persona. Un’identità illuminata per mezzo dei dati collezionati da agenzie esterne, quali sono le società commerciali o le agenzie governative.

Dati che hanno molteplici scopi, come valutare il suo grado di solvibilità ai fini della concessione di mutui, valutare il suo stato di salute a fini assicurativi o creditizi, definire le sue preferenze musicali o politiche, eccetera.
In una conferenza a Roma di qualche anno fa, Roger Clarke – riconosciuto come uno dei primi ricercatori a discutere di Persona Digitale – ha definito quattro categorie di persona digitale modellate sull’individuo reale come forme di un inconscio digitale:

– alla prima categoria troviamo degli individui che non sono a conoscenza degli archivi che conservano i loro dati sensibili.

– alla seconda, degli individui che sono a conoscenza degli archivi dati, ma non possono accedere ad essi.

– alla terza, degli individui che sono a conoscenza degli archivi e ne hanno accesso ma non conoscono i codici per decodificare le informazioni su tali archivi.

– nell’ultima categoria troviamo degli individui che hanno accesso ai loro dati e, nonostante sappiano che ad essi sono state sottratte molte delle informazioni che le profilano, tuttavia non ne conoscono il motivo.

In quest’ottica il profiling si può definire l’insieme di quelle tecniche che servono per disegnare la fisionomia digitale di un utente in base al suo comportamento.

Questo modello di profiling deriva, nelle sue linee generali, da quello in uso da tempo dalle forze dell’ordine e reso popolare dai film e dalle serie televisive.

Si tratta di una tecnica che ha l’obiettivo di portare alla luce dei pattern, cioè, degli schemi ricorrenti nel modo di agire di un indiziato.

L’obiettivo dei profiling di polizia è di prevedere il momento del reato e intervenire per evitarlo.

Per analogia, come il profiling criminale identifica il comportamento di un delinquente, allo stesso modo il profiling commerciale identifica il comportamento di un utilizzatore di servizi.

Rappresenta un grosso passo in avanti qualitativo rispetto al meccanismo della fidelizzazione (dall’inglese fidelity, fedeltà), perché si tratta di un monitoraggio che non riguarda solo i consumi correnti, ma è in grado di anticipare i desideri di consumo, così come il profiler criminale anticipa il momento e le modalità del reato.

Il campo di studio del profiling digitale, applicato ai consumi, non riguarda più con lo sviluppo dei programmi solo l’area degli acquisti, ma anche l’insieme delle interazioni e dei sentimenti (dei processi emotivi) che un individuo matura in un ambiente sociale predisposto per mezzo del web.

L’obiettivo di questo profiling è quello di disegnare un’area esplicativa dei legami sociali e, per conseguenza, della qualità dell’identità che si viene a formare entrando in relazione con gl’altri.

Quest’area di studi oltre a essere complessa è delicata da valutare.

Tra l’altro – per motivi politici e culturali – siamo abituati a pensare che il tema del controllo sia di esclusivo appannaggio delle istituzioni (più o meno legittime) che detengono il potere e non una prerogativa commerciale.

In generale, se un governo spia la popolazione o settori di essa si rende colpevole per l’opinione pubblica di un comportamento scandaloso e antidemocratico.

Di contro e fino ad oggi, invece, non c’è scandalo, né eccessiva riprovazione morale se questo controllo è esercitato dalle multinazionali del digitale.

Da un punto di vista fenomenologico il profiling risulta così una delle tecniche più sofisticate per reificare un individuo, renderlo simile a una cosa, in questo caso, una cosa misurabile, valutabile e manovrabile.

Va aggiunto che non pensiamo mai che siamo tutti sottoposti alla profilazione e, questo, indipendentemente dall’uso che facciamo dei servizi gratuiti in rete.

Come abbiamo gia ricordato i critici digitali dicono:

SE E’ GRATIS VUOL DIRE CHE LA MERCE SEI TU.

Ed è ovvio, perché l’obiettivo dei servizi che ci offrono è il profitto e non certo quello di metterci in contatto con altri o condividere con noi le esperienze della vita.

Diceva Hegel: L’ovvio ci è sconosciuto a causa della sua notorietà.

Il segreto di Pulcinella del digitale sta nel suo potere di estrarre valore economico dalla capacità e nella necessità umana di incontrarsi, comunicare, mostrarsi, generare senso e costruire legami sociali.

In altri termini la profilazione costituisce l’insieme delle tecniche che consentano di identificare, classificare, circuire gli utenti in base al loro comportamento.

Quello che viene raccolto e conservato non è, come nelle indagini di mercato classiche, una sorta di istantanea in un dato momento, ma è un flusso di dati in movimento che aumenta e si modifica in continuazione, realizzando una sorta di controllo continuo.

In sostanza, ogni utente che è in rete sviluppa e acquisisce, volente o nolente e a dispetto della privacy, un’impronta identitaria unica e in perenne metamorfosi.

Il tracciamento di questa impronta avviene in vari modi e per mezzo delle applicazioni che ci mettono in contatto con i servizi.

La più importante è il Web browser, cioè il navigatore, con cui surfiamo nel Web.

Il browser è un programma per navigare in Internet che inoltra la richiesta di un documento alla rete e ne consente la visualizzazione una volta arrivato.

Tra i browser più utilizzati vi sono Google Chrome, Internet Explorer, Mozilla Firefox.  

Il progetto Mozilla, tra l’altro, ha fornito il codice che è alla base di altri browser, fra i quali Netscape, Mozilla Suite, Galeon, Firefox ecc …

Oggi il modo più conosciuto per tracciare un’impronta è il sistema dei cookie, che tutti conoscono perché per legge deve essere segnalato sul sito dove si sta navigando.

Va però aggiunto che questi cookie sono quasi sempre soggetti a domini esterni rispetto a quello su cui il cookie si trova.

Che cos’è un cookie?

E’ una stringa di codice, diversa per ciascuno, che ci viene assegnata ogni volta che siamo su un sito e al cui interno sono contenute le impostazioni dell’utente relative al sito Web visitato.

Quando si ritorna su questo sito i cookie impostati in precedenza vengono di nuovo inviati al sito.

A cosa servono?

Se sul sito di una compagnia aerea effettuiamo una ricerca con la frase: Voli per Londra o Treni per Berlino, sul nostro browser viene istallato un cookie con questa richiesta, in gergo query.

Il termine query viene utilizzato per indicare l’interrogazione da parte di un utente di un database, strutturato.

L’analisi del risultato della query è un oggetto di studio dell’algebra relazionale.

Poi, in seguito a questa richiesta, un software istallato sul sito consultato farà uso di tale informazione (Voli per Londra, Treni per Berlino) per offrirvi della pubblicità legata alla ricerca, come hotel, noleggio auto, ristoranti centri di shopping, eccetera.

Questo perché il cookie istallato è un cookie di proliferazione.

In ogni modo, ci sono sistemi di tracciamento anche più sofisticati come gli LSO (Local Shared Object) più conosciuti con il nome di flash cookie, e gli e-tag, una sorte di Database nascosti dentro il browser e usati soprattutto dalle grandi compagnie come Google, Yahoo, Amazon e così via.

Il tag è una sequenza di caratteri con cui si marcano gli elementi di un file per successive elaborazioni. Da qui la sua definizione più popolare, di sigla apposta come firma dall’autore di un graffito.

Perché tutto questo ci riguarda da un punto di vista sociologico?

Perché il nostro browser generalmente è farcito di software di cui non sospettiamo l’esistenza e che hanno lo scopo di tracciarci.

La pratica di ripulire il proprio browser è importante, ma non risolve il problema.

In linea di massima ogni volta che una tecnologia Web permette a un server di salvare qualche dato all’interno del browser, questo può essere successivamente usato come sistema di tracciamento.

C’è anche una proliferazione di tipo attivo.

Infatti, quando utilizziamo Google Doc o Gmail condividiamo con il server tutte le informazioni sui contenuti, le condivisioni e le modalità d’uso che ne facciamo.

E’ un tracciamento di tipo attivo di cui abbiamo accettato le condizioni, vale a dire, accettando quei “Termini del Servizio” che nessuno legge mai e che, in sostanza, ci comunicano che, per esempio, Google, con ciò che mettiamo a sua disposizione, si riserva di farne quello che vuole al fine di migliorare il servizio (sic).

In breve, dobbiamo avere coscienza del fatto che i servizi che ci vengono promessi come gratuiti non lo sono affatto.

LA MONETA DI SCAMBIO E’ RAPPRESENTATA DALLA NOSTRA IDENTITA – CHE SI COSTRUISCE ATTRAVERSO IL WEB – E DAL CONTENUTO DELLE NOSTRE INTERAZIONI CON GL’ALTRI.

Per interazione sociale intendiamo qui una relazione di tipo cooperativo svolta da due o più attori detti soggetti agenti, che orientano le loro azioni in riferimento ed in reazione al comportamento di altri attori.

Queste relazioni sono caratterizzate da una certa durata, intensità e ripetitività nel tempo.

Il termine trae origine dalla scuola sociale americana ed è in qualche modo l’equivalente di relazione sociale.

Vedi: Modelli di interazione, Erving Goffman, Bologna, Il Mulino, 1971. (Contiene in trad. italiana: Interaction ritual. Strategic interaction.)

Come abbiamo già osservato, l’identità digitale è, di fatto, la base dei profitti del Web 2.0.

Il termine, apparso nel 2005, indica la seconda fase di sviluppo e diffusione di Internet, caratterizzata da un forte incremento dell’interazione tra sito e utente.

Vale a dire:

(uno) Maggiore partecipazione dei fruitori, che spesso diventano anche autori (blog, chat, forum, wiki).

(due) Più efficiente condivisione delle informazioni, che possono essere più facilmente recuperate e scambiate con strumenti peer to peer o con sistemi di diffusione di contenuti multimediali come Youtube.

Nelle reti telematiche il peer to peer è l’architettura in cui tutti i computer connessi svolgono la funzione sia di client che di server. In linea di principio il peer-to-peer può ostacolare i monopoli dell’informazione.

(tre) Sviluppo e affermazione dei social network.

Possiamo dire che l’architettura del Web 2.0 ha avuto come obiettivo principale quello di pensare l’identità degli utenti.

Infatti e come abbiamo visto, la raccolta delle informazioni sulle identità, attraverso le tecniche del profiling, costituisce la piattaforma su cui si fondano i profitti delle società di servizi gratuiti online.

Occorre, cioè, rendere l’utente un oggetto di studio misurabile.

Creare un modello semplificato di esso sul quale poter compiere elaborazioni come si fa con un insieme di dati.

L’aspetto che non va sottovalutato di questo problema è questo.

L’identità – come spiegano le scienze sociali – è un concetto complesso, costituisce il frutto delle relazioni in cui viviamo.

Come si fa a renderla misurabile?

Come abbiamo visto con la profilazione, vale a dire con quella tecnica che permette di identificare i singoli utenti e catalogarli in base al loro comportamento.

Dove sta l’inganno? Nel fatto che l’utente viene reificato (messo a nudo) attraverso il suo stesso comportamento.

Analizzando la nostra condotta sono registrate le nostre azioni il cui significato è calcolabile attraverso la costruzioni di parametri.

In altri termini, sul web commerciale noi siamo o diventiamo quello che facciamo.

Dal più piccolo movimento del mouse fino al tempo che passiamo senza far nulla sulla schermata di una pagina web.

Va anche rilevato che nei panottici digitali del web il credito e la visibilità sono direttamente proporzionali a quanto noi riversiamo sui framework, la piattaforma che funge da strato intermedio tra un sistema operativo e il software che lo utilizza.


Panopticon o panottico è un carcere ideale progettato nel 1791 dal filosofo e giurista Jeremy Bentham.

Il concetto della progettazione è di permettere a un unico sorvegliante di osservare (opticon) tutti (pan) i soggetti di una istituzione carceraria senza permettere a questi di capire se siano in quel momento controllati o no.

Il nome si riferisce anche a Argo Panoptes della mitologia Greca: un gigante con un centinaio di occhi considerato perciò un ottimo guardiano.

L’idea del panopticon ha avuto una grande risonanza successiva, come metafora di un potere invisibile, ispirando pensatori e filosofi come Michel Foucault, Noam Chomsky, Zygmunt Barman, Geeorge Orwell, autore del romanzo 1984.


Più il nostro account è raffinato, più ci personalizziamo, maggiore sarà il dettaglio della nostra immagine profilata sui data center delle aziende che conservano i nostri dati.

L’account è il complesso dei dati identificativi di un utente. Soni i dati che ci consentono l’accesso a un servizio di rete.

L’account di posta elettronica, in particolare, è il nome e la parola d’accesso per poter usufruire del servizio di posta.

Esistono da questo punto di vista due copie della nostra identità.

Una è quella che vediamo sullo schermo del nostro computer, che aggiorniamo e attraverso la quale ci rapportiamo con gli altri.

È, di fatto, l’identità con la quale ci presentiamo nell’infosfera.

L’altra è quella che sta sul server, è molto più estesa e complessa perché conserva in memoria ogni nostro dettaglio a partire dalle interazioni, dalle correzioni e dalle osservazioni passive che abbiamo svolto.


Da, il Manifesto – 2018.

Internet è al tempo stesso spazio economico, produttivo basato sui Big Data e una formidabile tecnologia del controllo sociale che segue linee di sviluppo diverse da quelle che una distratta teoria critica dipinge come un grande fratello in azione.
Nessuno schermo impartisce la linea di condotta, né c’è un nemico esterno o una quinta colonna interna da combattere e denunciare alle autorità costituite. Ci sono semmai policy, net-etiquette da fare proprie e rispettare.

Più che il regno autoritario descritto da George Orwell, Internet è il regno incontrastato del politicamente corretto, che ha guardiani efficienti e spesso totalmente arbitrari.

Su Facebook ci sono software che analizzano il contenuto di conversazioni e post alla luce di parole chiave, che rivelano potenziali messaggi razzisti, sessisti, terroristici.

Così può accadere che post violentissimi o pedo-pornografici possano circolare senza ostacoli e account di gruppi militanti anticapitalisti bloccati perché contrari alla policy dell’impresa di Mark Zuckeberg. E se scatta la protesta dei colpiti dalla censura di Facebook, la risposta standard, sicuramente gestita da un altro software è sempre la stessa: «ci scusiamo per l’inconveniente, ma l’errore è dovuto a un funzionamento non ottimale dell’algoritmo». Sta di fatto che il controllo è decisamente cheap e discreto. Allo stesso tempo, è compito degli utenti dei social network esercitare la verifica dei contenuti, segnalando ai webmaster le infrazioni al politicamente corretto incontrate nella navigazione.

Il controllo sociale è esercitato anche in un’altra maniera: la costituzione di comunità virtuali transnazionali tra simili. I simpatizzanti per l’estrema destra possono scambiare le loro critiche xenofobe e sessiste all’interno di gruppi chiusi. Lo stesso possono fare gli amanti di pratiche sessuali non convenzionali, o gli appassionati di gatti, con i loro gruppi di condivisione di foto e video: a volte, l’account non riguarda un umano, ma un cane, pappagallo o micio che sia.

Fenomeni ridicoli, certo, ma sempre più diffusi in questo ridisegno dei confini globali secondo affinità elettive che non contemplano la comunicazione tra diversi.

L’omogeneità delle comunità virtuali funziona come una potente tecnologia del sé, scriverebbe l’abusato Foucault. Ma se il filosofo francese pensava soprattutto a quel governo della vita esercitato dallo Stato, nella società globale della Rete le politiche della vita sono prerogativa non solo degli stati nazionali, ma anche di organismi sovranazionali che stabiliscono le regole di Internet e delle imprese. Amazon, Airb&b, Uber e tutte le piattaforme per fare affari on line, enfatizzano commenti e recensioni ai loro prodotti. Li pilotano, ma entro regole proprietarie certe e certificate. E sottoscritte dagli utenti. La relazione servo/padrone dovrebbe essere ripensata alla luce della sottomissione volontaria.

Dunque i confini non spariscono, ma vengono prodotti continuamente dagli stessi utenti. Più che un panopticon, la Rete è l’emblema di un synopticon, strategia di controllo sociale basata su relazioni vis-à-vis. Alle imprese non rimane altro che elaborare i dati, impacchettarli, venderli a chi li userà per scopi pubblicitari.

L’umano perde la sua corporeità, per essere ridotto a una successione di bit. Ma se questa è la tendenza ne esiste un’altra meno chiara, spesso inintellegibile.

Che Facebook, Google, Amazon, Apple e le altre major del world wide web si approprino dei dati personali considerandoli una loro proprietà privata è stato ampiamente studiato.

Sono le dinamiche del capitalismo estrattivo, cioè di quel regime di accumulazione capitalistica basato sulla espropriazione dei commons non tangibili, immateriali direbbero alcuni teorici della network culture.

Meno evidente è la formazione di un complesso militare-digitale che vede in azione militari, va da sé, ma anche imprese private. Silicon Valley, oltre che laboratorio di innovazione tecnologica, è diventata nel tempo l’atelier che produce software per il controllo sociale. Quando si dice Silicon Valley non si intende solo la valle californiana. I maggiori committenti e produttori di software per il riconoscimento facciale, analisi dei video e dei contenuti sono sì statunitensi, ma anche inglesi, francesi. E israeliani.
Il complesso militare digitale non si ferma alla National security agency, ma vede piccole start up inglesi e israeliane che fanno affari con militari e altre organizzazioni economiche, come quelle che gestiscono gli aeroporti o le polizie metropolitane: la videosorveglianza ha bisogno di strumenti i di elaborazione efficienti.

È un complesso militare-digitale litigioso. I big della Rete sono gelosi dei loro Big data e difficilmente li cedono o li fanno consultare dalle agenzie della sicurezza nazionale. I ripetuti rifiuti di Facebook, Google, Apple di collaborare con la Nsa o con la Fbi nella condivisione dei dati sono presentati come l’adesione al sacro rispetto della privacy, in realtà salvaguardano un business.
Questo complesso militare-digitale mina le fondamenta della democrazia: è basato sul segreto e sulla sottrazione al controllo del popolo.

Con una differenza: nessuno limita la libertà di comunicare. Semmai ne definisce il lessico appropriato: sorveglianza e controllo devono essere a maglie larghe per consentire linee di fuga e di circolazione ampia. Altrimenti i Big data si inaridiscono. E quando il rischio di esaurimento del data mining diventa alto, si ripristina l’orrore moderno: frontiere e sovranità nazionale esercitata dallo Stato.

**********************

Una nota sul data mining.

Definiamolo prima di analizzarlo.

Il data mining riguarda l’estrazione di informazioni – eseguita in modo automatico o semi-automatico – da grandi quantità di dati conservati nelle banche dati per la ricerca di pattern e/o relazioni non note a priori.

Implica l’uso di tecniche di analisi che si avvalgono di modelli matematici e statistici per l’interpretazione e la previsione dell’andamento di serie temporali, tecniche che consentono di implementare le capacità analitiche di tipo predittivo.

Il data mining importante perchè da tempo è usato per orientare le opinioni e i processi decisionali.

Va osservato che questo lavoro sui dati non si limita alla constatazione e alla osservazione di fatti, perché il suo fine è quello di mettere in atto azioni capaci di produrre valore.

Ci sono quattro misure – dette anche le quattro V – che consentono di catalogare i dati raccolti e di poterne individuare una grandezza.

Queste misure sono:

Il Volume, è una misura facile da intuire in quanto riguarda l’accumulo dei dati.

Per valutarla osserviamo che ogni minuto vengono caricate solo sulla piattaforma di sharing Youtube più di trecento ore di video.

Facebook genera quasi cinque petabyte di dati al giorno.

Twitter gestisce oltre 600 milioni di tweet ogni 24 ore.

Il numero di mail scambiate ogni giorno nel mondo e poco più di duecento miliardi di unità.

(Sono dati del 2016 e sono per la nostra esperienza impensabili)

La Velocità. Concerne la necessità di ridurre al minimo i tempi di analisi dei dati cercando di effettuarli in real time o quasi, distinguendo quelli che potrebbero essere o diventare in breve tempo obsoleti.

La Varietà. È una delle caratteristiche più importanti in quanto incide sul valore di rete generato.

I dati – a una classificazione di massima – possono essere Dati strutturati (costituiscono il venti per cento di tutti i dati). Dati non strutturati sono i dati conservati senza alcuno schema e composti da un elevato numero di meta-dati, ossia di informazioni che specificano il contenuto e il contesto di una pagina web. Dati semistrutturati. Come i dati XML.

In informatica, l’Extensible Markup Language (XML) è un linguaggio di markup che definisce un insieme di regole per la codifica dei documenti in un formato che sia leggibile dall’uomo e leggibile dalla macchina.

La quarta misura è la Veridicità. Indica il grado di accuratezza e di attendibilità dei dati. È la condizione chiave per poter estrarre valore dai dati.

Queste quattro misure che abbiamo sommariamente descritte sono legate da processi di interdipendenza.

Partendo da esse possiamo definire i Big data (ed è quello che interessa la sociologia) come un patrimonio informativo caratterizzato da velocità, volume e variabilità elevati, che richiede forme innovative di analisi e di gestione finalizzate a ottenere una più accurata comprensione dei processi decisionali.

Questo fenomeno dei Big data ha smesso da tempo di essere un argomento specialistico per diventare un tema ricorrente sui social network.

Su LinkedIn, per esempio, ci sono più di duemila gruppi dedicati all’argomento, può sembrare strano, ma non dimentichiamo che i data sono il petrolio del ventunesimo secolo o, se preferite, uno dei temi centrali della contemporaneità.

Alla base di questa situazione ci sono le tecnologie digitali, essenziali a innumerevoli attività professionali, della comunicazione, dell’economia, della finanza, dell’industria, della cultura, della difesa.

Così come ci siamo noi, sempre più dipendenti da una serie di dispositivi digitali necessari per svolgere un numero sempre più elevato di compiti quotidiani e dotati di un numero sempre crescente di sensori e strumenti di registrazione.

Tra l’altro è questo il motivo per cui la natura dei dispositivi digitali è di essere delle macchine che in prima istanza producono dati.

Il più famoso di essi lo chiamiamo ancora “telefonino”, ma lo smartphone è a tutti gli effetti un computer portatile di dimensioni ridotte, ed è proprio la sua vera natura che lo fa costare così poco.

Lo facciamo senza pensarci, ma la mattina quando lo accendiamo o, meglio, lo avviamo – sempre che non lo lasciamo acceso in continuazione – il nostro smartphone per prima cosa invia a più soggetti, con i quali ci collega, il segnale che il device è attivo.

Quali sono questi soggetti?

Il produttore del telefono, il produttore del sistema operativo, quelli delle app che abbiamo installato e ad altri a essi collegati.

Se poi sul nostro smartphone abbiamo attivato la geo-localizzazione, verranno registrati anche i nostri tragitti quotidiani che finiranno a far parte di quel insieme di dati che trasmettiamo a tutti i soggetti a cui siamo legati per suo tramite.

In altri termini, se una mezzora dopo essere usciti di casa il nostro smartphone raggiunge un indirizzo che corrisponde a quello di un’azienda o di una scuola, come nel nostro caso, e da qui non si muove per un certo periodo di tempo, sarà piuttosto facile per chiunque abbia i mezzi per raccogliere questi dati, di processarli e trarne delle conclusioni.

In passato questa acquisizione di dati creava spesso ingorghi, oggi avviene in modo automatico, senza interferenze, perché ogni dispositivo che noi utilizziamo crea una traccia digitale fatta di dati che sono aggregati, analizzati e letti.

Questa situazione è oggi accentuata dall’Internet delle cose (Internet of Things) – che abbiamo già definito come l’implementazione di connettività all’interno di elettrodomestici ed oggetti di uso comune – che ha fatto crescere le dimensioni della nostra traccia digitale trasformandola in modo radicale, con una metafora, dando vita all’ombra delle nostre abitudini di consumo.

Diciamo che con la mole di dati raccolti si può fare un vero e proprio profilo virtuale della nostra esistenza, esistenza di cui senza una piena consapevolezza cediamo la proprietà e il controllo ai produttori di device e ai fornitori di servizi digitali.

Dunque, al centro del problema ci sono i dati, la cui importanza – come fenomeno della modernità – fu messa in luce qualche anno fa dalle discussioni sulla postfattualità.

Postfattuale(in inglese posttruth) è un termine inventato da David Roberts, un blogger ambientalista americano.

Serve a spiegare la crescente inclinazione di parte della società moderna a credere a notizie false o fortemente alterate, cioè, alle “bufale”, come si dice in Italia.

Semplificando, quello che stiamo vivendo è un passaggio da una modalità o schema di giudizio basato sull’osservazione diretta e la testimonianza dei fatti a una modalità di giudizio basata sulla raccolta, l’aggregazione e l’analisi dei dati.

La domanda che, per conseguenza, dobbiamo porci è questa:

In che modo il passaggio dai fatti ai dati come modalità di giudizio cambia il modo in cui vediamo le cose?

In primo luogo va messo in luce il ruolo che i dati rivestono nel determinare il giudizio che diamo sulla realtà che ci circonda è la loro pretesa di oggettività rispetto ai fenomeni che descrivono.

Per verificarlo basta fare un giro sui social network per costatare il modo in cui gli utenti gestiscono dati, statistiche, inchieste di data journalism e di altre forme di presentazione dei dati come se fossero un vangelo, con il solo obiettivo di far accettare all’interlocutore l’evidenza della propria posizione.

Molte inchieste hanno dimostrato che nel sentire comune, soprattutto dei nativi digitali, ciò che viene presentato e supportato attraverso i dati assume la forza di un’evidenza sostanzialmente incontestabile.

O, per dirla in altro modo, sembra che il dato, in sé, abbia assunto uno statuto simile a quello di un elemento naturale.

Vale a dire abbia acquisito uno statuto comparabile a quello dei fatti osservabili che per secoli hanno costituito l’unica base possibile di giudizio.

Questa credenza del dato come un paradigma di oggettività è il prodotto di due fattori.

– Da una parte è il risultato dell’abbassamento delle soglie d’ingresso alla produzione e distribuzione delle informazioni, che ha reso possibile un mondo caratterizzato dalla parcellizzazione delle opinioni e dei punti di vista competenti, generando quello che i sociologi chiamano un panorama liquido e mutevole.

– Dall’altra è l’effetto ideologico che presiede alla costruzione di un discorso e di un punto di vista che ha come obiettivo di nascondere e rimuovere la reale natura dei dati.

In buona sostanza, quelli che noi ci siamo abituati a considerare come fatti che si danno in modo spontaneo all’analisi e che chiamiamo comunemente dati, sono in realtà una selezione da un catalogo infinito di possibilità che si danno ai nostri sensi.

Per cui, considerato che l’operazione di selezionare e stabilire delle differenze tra le cose che ci circondano è l’atto stesso di fondazione di una cultura allora, anche i dati che raccogliamo e analizziamo, ne portano impresso il segno.

Considerati in questo modo, cioè come un elemento culturale, i dati perdono il carattere dell’oggettività per diventare – come le opinioni – il prodotto delle condizioni e del contesto in cui vengono sviluppati.

In pratica, anche i dati portano impresso i bias culturali di chi progetta i sistemi per raccoglierli e le cornici concettuali per analizzarli, mettendo così in luce alcuni aspetti a discapito di altri, a seconda dei punti di vista da cui vengono creati.

*****************************

Per spiegare che cos’è un algoritmo e illustrare il meccanismo del SE/ALLORA siamo ricorsi al gioco della mora cinese.

Oggi non siamo più in grado di battere le ICT neppure a questo gioco poiché un robot è così veloce da riconoscere in un millesimo di secondo la forma assunta dalla nostra mano e scegliere la mossa vincente.

Per comprendere quello che molti chiamano il nostro destino informazionale dobbiamo tenere presente la distinzione tra tecnologie che migliorano e tecnologie che aumentano.

Impugnature, interruttori, manopole – che caratterizzano le tecnologie che migliorano (come ieri erano martelli, leve, pinze…) – sono interfacce volte a consentire l’applicazione dello strumento al corpo dell’utente in modo ergonomico.

Le tecnologie che migliorano richiamano – se si vuole – l’idea di cyborg.

Invece i dati e i pannelli di controllo delle tecnologie che aumentano sono interfacce tra ambienti diversi.

Poeticamente possiamo dire che le vecchie tecnologie creano ambienti funzionali al loro scopo, ambienti raccolti, com’è l’interno acquoso e insaponato di una lavatrice o l’interno bianco e freddo di un frigorifero.

Le ICT, invece, sono forze che modificano l’essenza del nostro mondo, creano o ri-costruiscono realtà che l’utente è in grado di abitare.

DICIAMO CHE NON SONO CHIUSE SU SE STESSE, MA SONO AVVOLGENTI, COSTRUISCONO INTORNO A NOI.

Facciamo un passo in avanti.

La nuova storia, la storia nell’era digitale, dipende in modo considerevole dai Bigdata, ma ci sono molti problemi da considerare.

Uno riguarda la qualità della memoria digitale perché le tecnologie dell’informazione e della comunicazione digitale hanno una memoria che dimentica.

Cosa vuol dire?

Che queste tecnologie – costi a parte – divengono rapidamente obsolete e rendono tutto volatile.

Molti documenti digitali sono diventati inutilizzabili perché la loro tecnologia non è più disponibile.

Basti pensare al caso dei floppy.

In Internet, poi, ci sono milioni di pagine abbandonate, vale a dire di pagine create e poi mai più aggiornate o modificate.

Nel 1998 la vita media di un documento, prima dell’abbandono, era di 75 giorni, nel 2008 si è ridotto a 45 giorni, oggi – 2018 – si parla di 37 giorni.

Molti studiosi hanno osservato che la nostra memoria digitale appare volatile come la nostra memoria orale anche se l’impressione che ci trasmette la memoria digitale è diversa.

Realisticamente possiamo dire che, in questa alba del digitale, le ICT non conservano il passato per metterlo a disposizione del futuro dal momento che le strategie digitali tendono a farci vivere in un eterno presente.

Conservare la memoria, del resto, non è facile, occorre saper cogliere le differenze significative e saper stabilire le sedimentazioni in una serie ordinata di cambiamenti.

Qual è la sostanza del problema?

Il fatto che è lo stesso sistema dinamico – che ci consente di riscrivere migliaia di volte lo stesso documento – e anche quello che rende altamente improbabile la conservazione delle versioni precedenti per un esame futuro.

“Salva questo documento” significa sostituisci le versioni precedenti.

In questo modo ogni documento digitale di qualsiasi genere è condannato a questo imprevisto destino tecnico-storico.

Con quali rischi?

Che le differenze finiscano per essere cancellate e le alternative amalgamate.

Così, il passato costantemente riscritto e la storia ridotta a un perenne qui-ora.

Come dicono gli scettici, quando la maggior parte della nostra conoscenza è nelle mani di questa memoria che dimentica, rischiamo di trovarci, senza volerlo, imprigionati in un eterno presente.

Questo è uno dei motivi per cui si sono formate molte organizzazioni volte a conservare la nostra eredità culturale digitale come la “National Digital Stewardship Alliance” o l’”International Internet Preservation Consortium”.

Paradossalmente si può dire che il lavoro di custode delle informazioni digitali è una delle nuove professioni di questo secolo.

Un altro aspetto importante del problema è che la quasi totalità dei dati è stata creata in pochi anni e tutti questi dati stanno invecchiando.

Invecchiano insieme ai nostri attuali supporti digitali, hard disk e memorie di vario genere.

MTBF – Mean Time Before Failure ovvero “il tempo prima del fallimento” è un paradigma che valuta l’aspettativa di vita stimata di un sistema.

Più elevato è il MTBF più a lungo dovrebbe durare un sistema.

Un MTBF di cinquantamila ore – vale a dire di cinque anni e mezzo – è la vita media di un hard disk.

La questione è che, per come si è sviluppato il sistema digitale, le aspettative di vita dei supporti dei nostri dati sono, al momento, sincronizzate.

Praticamente, i Bigdata invecchieranno e diventeranno dati morti pressappoco nello stesso momento.

Va da sé, molti saranno salvati e trasferiti su altri supporti, ma chi stabilirà quelli che dovranno vivere e quelli che dovranno sparire?

Per capire meglio questo problema c’è un’analogia. È quella che ha riguardato il passaggio dai film in bianco e nero e muti, ai film a colori.

Questo passaggio fu fatto senza un criterio o delle direttive e oggi noi sappiamo che più della metà delle pellicole girate tra i primi anni del Novecento e gli anni Cinquanta sono andate distrutte.

Nel 2007, per la prima volta, il mondo ha prodotto più dati di quanti ne possa immagazzinare e ciò a dispetto del fatto che la densità di immagazzinamento degli hard disk stia crescendo rapidamente.

Per fare un esempio si prevede che all’inizio del 2021 un hard disk di 14 terabyte misurerà circa tre centimetri di diametro e non costerà più di una cinquantina di dollari.

È dunque importante capire questo.

Nella cultura analogica il problema è cosa salvare.

Nella cultura digitale il problema è cosa cancellare.

In quali forme e con quali conseguenze?

Nel digitale il nuovo spinge via il vecchio.

Il primo che entra è il primo che esce.

Le pagine Web aggiornate cancellano quelle vecchie, le nuove foto rendono obsolete le vecchie, i nuovi messaggi si sovrappongono ai precedenti, le e-mail recenti sono conservate a spese di quelle dell’anno prima.

Vediamo un altro argomento connesso. Il Quantified Self.

È un movimento nato in rete per incorporare la tecnologia nell’acquisizione di dati relativi a ogni aspetto della vita corrente.

Il motto di questo movimento è: self knowledge through numbers.

Nata nel 2007 su iniziativa della rivista Wired  la pratica del life-logging (la pratica di registrare le immagini di una vita in senso biologico) grazie alla diffusione di dispositivi bio-metrici connessi alla rete globale ha consentito un balzo in avanti del monitoraggio delle attività biologico.

Ogni aspetto vitale è definito in termini di input, stati o condizioni, performance, quantità di cibo consumato, qualità dell’aria respirata, umore, eccitazione, eccetera.

I sensori si possono indossare e sono in grado di monitorare l’attività fisico-chimica dell’organismo, sequenziare il DNA e le cellule microbiche che abitano il corpo.

Il desiderio e la ricerca della verità del sé – che ha la sua culla nell’insegnamento delfico GNOTHI SEAUTON (conosci te stesso) si sta trasformando in uno strumento di auto-addestramento.

Misurare le manifestazioni fisiologiche del proprio corpo con gli strumenti di monitoraggio digitali, tenere una traccia costante del proprio corpo organico di fatto serve solo al confronto profilato.


Una nota tratta da La Repubblica, aprile 2013.

In principio fu il blog. Ma adesso, dopo che i social network come Facebook e Twitter hanno elevato il “weblog”, ossia il “diario online”(questo il significato del termine) a fenomeno universale, è arrivato il momento del lifelog: il diario della propria vita per immagini da postare tutto intero su internet.

Una nuova micro-video-camera digitale che si può attaccare ai vestiti e in grado di effettuare automaticamente due foto al minuto.

Ciò permette di mettere in rete tutto quello che facciamo nelle 24 ore del giorno.

Prodotta dalla Memoto, una startup americana, crea se uno la “indossa” per più o meno dodici ore al giorno (ovvero se la si tiene sempre accesa, tranne quando si dorme) quattro gigabyte di nuovo materiale ogni 24 ore.

La mini macchina fotografica scatta 10 mila immagini alla settimana, 40 mila al mese, mezzo milione all’anno.

Volendo, si può fare in questo modo la “cronaca fotografica” di una vita intera, due foto al minuto dalla culla alla tomba, pari all’incirca a 40 milioni di fotografie: mentre mangiamo, studiamo, lavoriamo, chiacchieriamo, giochiamo, facciamo l’amore.

Sarà il “lifelogging”, si è chiesta la Bbc illustrando il nuovo fenomeno, la prossima mania del web?

Per gli ottimisti, come Martin Kallstrom, fondatore e presidente della Memoto, significa che non avremo più bisogno della memoria cerebrale per ricordare la nostra esistenza: basterà scaricare su internet e salvare l’archivio digitale di parole, suoni e immagini che scorre come un doppione, come una “second life”, accanto alla nostra vita reale, di cui è lo specchio fedele.

Per i pessimisti, tuttavia, questa “information overload”, questo carico eccessivo di informazioni digitali, può diventare una minaccia sociale, perché ogni parvenza di privacy va in frantumi nel momento in cui viene condiviso con altri utenti sul Web.

In altri termini, può funzionare una società in cui, perlomeno teoricamente, tutti sanno tutto di tutti (o almeno possono saperlo) con un semplice clic del mouse o semplicemente premendo i polpastrelli su uno schermo?

Una cosa è certa: le nuove frontiere della comunicazione digitale si spingono sempre più avanti, sempre più in fretta.

La Memoto ha prodotto il congegno per ora più piccolo, ma non è certo l’unica azienda dell’it, cioè dell’information technology, a operare nel campo del life-logging.

La Microsfot ha creato i una minivideocamera chiamata SenseCam che scatta automaticamente una foto ogni 30 secondi in maniera analoga.

Google Glass e Twitter offrono strumenti per filmare e postare in modo simile ogni attimo della nostra giornata.

“L’osservazione di massa sta diventando una tendenza globale”, osserva il professore Henry Jenkins, docente di studi sui nuovi media alla University of Southern California. “Viviamo in una cultura più esibizionistica ma al tempo stesso ci sono persone a disagio davanti a tutta questa mole di informazioni”.

Il timore è quello che il Grande Fratello immaginato da George Orwell nel suo romanzo futuristico “1984” non sia più un occhio che vigilia dal di sopra sull’esistenza umana, ma un minuscolo gadget che ciascuno di noi porterà volontariamente all’occhiello.

Tuttavia vanno considerati anche gli aspetti positivi: le immagini digitali riprese con i telefonini da centinaia o migliaia di spettatori hanno aiutato la polizia a individuare rapidamente gli autori dell’attentato all’arrivo della maratona di Boston.

E’ un fenomeno che gli esperti chiamano “sousveillance”,il contrario di surveillance (sorveglianza).

Invece di un governo che ci guarda dall’alto, ci sono gli individui che guardano dal basso, magari per mettere su internet il lifeblog della propria vita.


Vediamo adesso alcuni equivoci.

Quando si parla di intelligenza artificiale occorre intenderci.

È un’espressione che potrebbe far pensare a macchine dotate di conoscenza, in grado di ragionare e, soprattutto, consapevoli di ciò che stanno facendo.

Le cose, in realtà, sono molto diverse.

Il fatto che un software impari a riconoscere se, in una immagine, ci sono dei gatti non significa che sappia che cos’è un gatto.

O meglio, il software che ci batte giocando a scacchi non ha la più pallida idea di che cos’è il gioco degli scacchi, come per esempio avvenne quando Deep Blue batté Gary Kasparov.

Diciamo, semplicemente, che i sofware non sono in grado di pensare.

Sono solo in grado di processare una quantità enorme di dati e di metterli in relazione tra di loro, identificando collegamenti e differenze o calcolarli statisticamente.

Nel nostro esempio, di identificare la mossa degli scacchi che ha la maggiore probabilità di avere successo.

I mezzi utilizzati per arrivare a questo risultato sono sostanzialmente due.

Il machine learning – ovvero, l’apprendimento automatico – e la sua più recente evoluzione, il deep learning – l’apprendimento approfondito.

In particolare il deep learning lavora su un vastissimo numero di strati interni alle cosiddette reti neuronali che simulano il funzionamento del cervello raggiungendo così una maggiore capacità di astrazione.

En passant, ricordiamo che gli studi sulla cosiddetta intelligenza artificiale risalgono alla metà del secolo scorso.

Oggi possiamo definire il machine learning come una branca dell’intelligenza artificiale che fornisce ai computer l’abilità di apprendere senza essere stati esplicitamente programmati.

Apprendere attraverso tentativi ed errori attraverso una sorta di calcolo statistico estremamente evoluto.

Alla fine del secolo scorso, invece, la ricerca sulla cosiddetta intelligenza artificiale si concentrava sullo sviluppo delle capacità simboliche.

Vale a dire si cercava di far apprendere alle macchine tutte le regole necessarie per portare a termine un compito.

Per tradurre dall’italiano all’inglese – per fare un esempio – si cercava di fornire al computer tutte le regole grammaticali e i vocaboli delle due lingue per poi chiedergli di convertire una frase da una lingua all’altra.

Con il risultato di tradurre merluzzi con piccoli merli.

Tra i pionieri di queste ricerche va ricordato, Silvio Ceccato, che per anni lavorò nel laboratorio di cibernetica dell’Università Statale di Milano.

Diciamo che il modello simbolico ha grossi limiti e funziona solo in quei campi che hanno regole chiare e rigide, come la matematica e gli scacchi.

L’atteggiamento generale iniziò a cambiare con gli ultimi anni del secolo scorso quando diventò evidente che il machine learnig consentiva di risolvere problemi che l’intelligenza artificiale simbolica non sarebbe mai stata in grado di risolvere.

Tutto ciò, anche grazie a una mole senza precedenti di dati a disposizione e all’accresciuta potenza di calcolo dei computer.

Per farvi capire il volume dei dati riflettete su questo: nel 2013, il 90 per cento dei dati prodotti nella storia dell’umanità era stato creato nei due anni precedenti.

Alla base del machine learning c’è l’utilizzo di algoritmi che analizzano enormi quantità di dati, imparano da essi e poi traggono delle conclusioni o fanno delle previsioni.

Per questo si dice che questi programmi hanno un abilità di apprendere senza essere stati esplicitamente programmati a differenza dei software tradizionali che si basano su un codice scritto che li istruisce passo dopo passo.

In breve, nel caso del machine learning è la macchina scopre da sola come portare a termine l’obiettivo che le è stato dato.

È una forma di intelligenza?

No.

Per imparare a riconoscere un numero, diciamo il numero “quattro”, un’intelligenza artificiale deve essere sottoposta a migliaia e migliaia di esempi.

A un bambino di cinque anni basta vederne cinque o sei.

In ogni modo il metodo probabilistico è alla base di molte operazioni che ci semplificano la vita.

Il machine learning viene impiegato dai filtri antispam per eliminare la posta indesiderata, da Facebook per indovinare quali sono i nostri amici nella foto, permette ad Amazon o a Netflix di suggerirci quali libri leggere o quali film vedere o a Spotify di classificare le canzoni in base al genere musicale.

Ma il machine learning è in marcia.

Guiderà le nostre automobili, ma già adesso ci può assistere come se fosse un avvocato, soprattutto nelle pratiche internazionali. Un avvocato capace di scartabellare nei database legali di tutto il mondo.

E non dimentichiamo Watson – l’intelligenza artificiale elaborata dalla IBM – che può diagnosticare i tumori con precisione maggiore di molti medici ospedalieri. .

Riassumendo.

Per la cosiddetta intelligenza artificiale i due fattori fondamentali sono il potere di calcolo e i dati.

Quest’ultimi devono essere di buona qualità essendo la materia grezza alla base delle conclusioni o predizioni del network.

Come dicono gli informatici, se inserisci spazzatura, esce spazzatura.

Qual è allora il problema?

È che spesso i dati forniti alle IA (intelligenze artificiali) includono molti pregiudizi umani che si riflettono inevitabilmente sui risultati ottenuti con le macchine.

L’esempio di scuola di questa constatazione è quella del bot progettato da Microsoft e chiamato Tay. Ne abbiamo già parlato.

Appena ha cominciato a immagazzinare dati si sono scatenati i troll che hanno iniziato a comunicare con Tay dandogli in pasto una miriade di opinioni razziste e omofobe che lo hanno fatto diventare nel giro di 24 ore il primo esempio di intelligenza artificiale nazista.

Un aneddoto racconta che un istante prima di essere chiuso Tay twittò: Hitler was right I hate the Jews.

Lasciando stare i troll un altro problema nella distorsione delle I.A. è l’uso di training set facilmente accessibili e a basso rischio legale dal punto di vista del copyright.

Due esempi spiegano bene il problema.

Una fonte per istruire i network neuronali sono le e-mail.

In un caso famoso furono usate le mail di una compagnia petrolifera texana.

Sembravano perfette fino a quando questa compagnia non fu denunciata per truffa.

Va da se, la I.A. aveva assorbito l’arte di truffare!

Spesso per evitare i copyright si usano dati provenienti da opere che non sono più soggette ad esso.

Per esempio, in lingua inglese, Shakespeare, Joyce, Scott Fitzgerald.

Ma anche in questo caso c’è un problema non da poco.

Sono autori pubblicati prima della seconda guerra mondiale e un Dataset che faccia affidamento sui loro scritti non farebbe altro che riflettere i pregiudizi del loro tempo e lo stesso farà il sistema di intelligenza artificiale nutrito con questo Dataset.

Si tratta di un problema enorme e delicato, soprattutto per quanto riguarda l’ordine pubblico, perché, come si è già verificato, certe etnie – solo a causa di statistiche mal impostate – sono state considerate come naturalmente più predisposte a diventare terroristiche o a commettere crimini.

Il problema diventa ancora più delicato con i software predittivi in mano alle forze dell’ordine perché spesso essi finiscono per causare – come dice la sociologia – una profezia che si auto-avvera o che si auto-adempie.

In sociologia una profezia che si auto-adempie o che si auto realizza, è una previsione che si realizza per il solo fatto di essere stata espressa.

Predizione ed evento, infatti, sono in un rapporto circolare, secondo il quale la predizione genera l’evento e l’evento verifica la predizione.

Ad esempio nel mercato azionario ad una convinzione diffusa dell’imminente crollo di un’azienda, gli investitori possono perdere fiducia e mettere in atto una serie di reazioni che possono causare proprio il crollo della stessa.

In una campagna elettorale un candidato che dichiari di non credere nella sua vittoria può indurre apatia o rassegnazione nei suoi potenziali elettori, che si concretizzano in una diminuzione della sua base elettorale.

In psicologia, una profezia che si auto-adempie si ha quando un individuo, convinto o timoroso del verificarsi di eventi futuri, altera il suo comportamento in un modo tale da finire per causare tali eventi.

In conclusione il pericolo sta nel fatto che gli algoritmi – protetti dalla loro aurea di scientificità – potrebbero diventare una giustificazione per profilazioni in sé inattendibili e generare equivoci.

In sostanza, ogni sistema di profilazione o predittivo è efficace solo se i dati inseriti sono corretti e privi di bias.

Agosto 2019