PAGES

Appunti di Sociologia della Comunicazione – A.A.2019-20 – Parte III

SOCIOLOGIA DELLA COMUNICAZIONE

(PARTE TERZA)

ALCUNE PREMESSE ORIENTATIVE.

Nelle società moderne la vita corrente è sempre più simile a un immenso accumulo di spettacoli.

Lo spettacolo – come lo definì Guy Debord più mezzo secolo fa – non è solo un insieme di immagini, ma va considerato come un rapporto sociale fra gli individui mediato dalle immagini.

Ne deriva che, nella post-modernità, le relazioni sociali sono “mediatizzate” dalle immagini.

Immagini che giocano un ruolo essenziale nella definizione della vita sociale e culturale e, per conseguenza, nella costruzione dei significati e della produzione simbolica.

A partire dal secondo dopoguerra – soprattutto negli Stati Uniti – le immagini hanno progressivamente occupato il posto che fu della parola e della scrittura, e mostrato come questo immergersi nel mondo visuale penetri in modo significativo nella vita corrente.

Il risultato è oggi che le immagini hanno sostituito, in moltissimi campi della vita sociale e culturale, la scrittura, intesa come un canale privilegiato di comunicazione.

Questo stato di cose – sociale, culturale, politico e tecnologico – obbliga a ridefinire il rapporto tra il linguaggio scritto e il linguaggio visuale, perché questo rapporto è alla base di numerosi processi culturali dai quali derivano le formazioni sociali e le strutture ideologiche della società.

Anche se la scrittura ha giocato un ruolo chiave nella definizione del nostro passato, nelle società postmoderne le immagini stanno sostituendo,con una frequenza sempre più accelerata, i testi scritti come forma culturale ed educativa dominante.

Possiamo dire che il mondo, come esperienza testuale, è stato, in questo secolo, in buona parte sostituito da un mondo come esperienza visuale.  

Questo significa che siamo i testimoni di un passaggio da una cultura del discorso, testuale e diacronica, come dicono i linguiti, ad una cultura dell’immagine che ha la caratteristica di essere sincronica e con un forte impatto mediatico.

In sostanza, i principi organizzativi del mondo occidentale sono sempre di più fondati sulle immagini piuttosto che sulla scrittura.  

È come dire che la cosiddetta post-modernità è “oculocentrica, non solo per la quantità delle immagini che circolano e che organizzano la conoscenza (grazie ai supporti digitali), ma perché gli individui hanno appreso a interagire con delle esperienze visuali il più delle volte costruite e socialmente rilevanti.

Esperienze visuali che giocano lo stesso ruolo dei fatti sociali in virtù del loro carattere impositivo.

Come ha scritto Nicholas Mirzoeff, docente di cultura visuale presso la New York University, il visuale ha reso obsoleto qualunque tentativo di definire la cultura e la società in termini esclusivamente linguistici.

Per valutare la portata del flusso di immagini che è intorno a noi diciamo che, in un’ora di una qualunque trasmissione – tramite uno schermo – noi possiamo vedere più immagini di quelle che vedeva in una intera vita un qualunque abitante di una capitale europea nel diciottesimo secolo.

Va ricordato che oltre alle immagini fotografiche, cine-televisive, informatizzate, esistono molte altre forme di dati visuali che circondano l’esperienza del vivere.

Anche se non ce ne rendiamo conto, oltre alle immagini in senso classico, molti degli oggetti che ci circondano veicolano significati visivi.

Basta pensare agli edifici urbani, alle strade, agli edifici religiosi, ai centri commerciali.

Non va poi sottovalutato – come ha scritto Erving Goffman – che buona parte dell’interazione sociale si basa sulla comunicazione prodotta dal linguaggio del corpo, dalle espressioni del viso, dai movimenti e dalle pose che assumiamo, in modo più o meno cosciente.

Questa attenzione alla dimensione visiva del mondo sociale segna il passaggio da una sociologia tradizionale ad una sociologia più attenta al visuale, inaugurata a suo tempo dallo storico americano Daniel J. Borstin e sviluppata da Marshall McLuhan sulla scorta delle ricerche della Scuola di Chicago e di Toronto, dove insegnava.

Un passaggio dietro cui ci sono molti interrogativi.

Chi produce le immagini? Per quale motivo le produce? Da chi sono viste? A chi sono indirizzate? Chi le interpreta? Chi le utilizza, in che modo le utilizza?


Molti degli autori che si sono occupati di sociologia visuale (Nicholas Mirzoeff, Stuart Hall, Jessica Evans, Chris Jenks) provengono dai cultural studies.

Gli studi culturali costituiscono un particolare indirizzo di studi sociali che ha origine in Gran Bretagna, alla fine degli anni ’50 del secolo scorso, come ampliamento del settore della critica letteraria verso i materiali della cultura popolare di massa.

Gli studi culturali, fin dall’inizio, combinano una varietà di approcci critici, molto spesso politicamente impegnati, tra cui il post-modernismo, la semiotica, il marxismo, il femminismo, gli studi di genere, l’etnografia, la teoria critica della società, lo strutturalismo e gli studi post-coloniali.  

L’obiettivo degli studi culturali è quello di comprendere  come venga elaborato il significato, e come esso sia in relazione – secondo l’impostazione teorica postmoderna – con i sistemi di potere e di gestione di essi.

Più corretta dell’espressione di significato sarebbe quella di Weltanschauung che, nella filosofia tedesca, esprime la concezione del mondo, della vita, e della posizione in esso occupata dall’uomo.


In breve, studiare la cultura visuale non significa semplicemente analizzare le immagini, ma prendere in considerazione la posizione (sempre più centrale della visione) nella vita quotidiana e di conseguenza nella costruzione e nella condivisione dei significati.

– La principale caratteristica della cultura visuale è la tendenza a visualizzare delle cose non-visuali con l’aiuto di supporti tecnologic, in particolare digitali.   

È un aspetto che cambia, ancora una volta, il rapporto tra ciò che è visibile e ciò che non lo è:

– In passato l’arte sacra ha visualizzato, attraverso l’occhio della fede, una particolare forma di invisibile – il divino.

– La fotografia nell’Ottocento ha permesso all’occhio della scienza di rappresentare e riprodurre la realtà visibile.

– Tecnologie, come il microscopio e i raggi X, hanno permesso al secolo scorso di guardare al di là delle possibilità della vista e di rendere visibile una realtà invisibile, ma reale.

– Infine, nella stagione del visuale – come l’ha definita nel 1999 lo scrittore e saggista francese Régis Debrayla tecnologia rende visibile una realtà che è solamente una simulazione, che noi possiamo vivere come reale.   

In quest’ottica, paradossalmente, l’immagine costruita con il computer è, da un punto di vista ontologico, più simile a un’icona religiosa che a un’immagine prodotta dalle tecnologie digitali.    

– Un secondo aspetto della cultura visuale è la tendenza a visualizzare l’esistenza.

Basta guardarsi intorno per comprendere che tutto tende a divenire visibile.

Dai modelli informatici alla medicina.

Dalle interfacce grafiche ai telefoni, fino alla vita privata.

– Un terzo aspetto della cultura visuale è la centralità dell’esperienza visuale.

Fino a secolo scorso esistevano delle rappresentazioni visuali socialmente definite e gli individui ne erano i destinatari passivi.

Oggi chi osserva può – con un minimo di competenza digitale – padroneggiare le immagini,

de-contestualizzarle, impiegarle per comunicare.

Ha osservato Marshall McLuhan, con uno dei suoi paradossi, se la Gioconda esce dal Louvre parigino e finisce su una t-shirt assume un significato completamente diverso da quello dell’originale appeso nel museo.

In altri termini, è divenuto essenziale capire ciò che gli individui e le istituzioni fanno con le immagini e che cosa si ripromettono con esse.

– Un ultimo e importante aspetto della cultura visuale è la visualizzazione del mondo.

La visualizzazione suppone che le immagini non siano né la realtà né la sua rappresentazione, ma una sua simulazione che capovolge l’idea stessa di realtà.

Ma cosa vuol dire visualizzare?

Per il senso comune vuol dire rendere visibile, mostrare.

Nel contesto degli studi sociologici realizzare un’immagine significa produrre una costruzione sociale, anche quando questa costruzione mantiene un rapporto indicativo con la realtà rappresentata, come nel caso della fotografia e del cinema.

In questo senso visualizzare significa dare una definizione della realtà.

Equivale a veicolare un significato, a produrre una determinata visione del mondo.

Ciò vuol dire, come conseguenza, che la visualizzazione – quale che sia il mezzo tecnologico su cui si fonda, dal pittogramma al pixel – contribuisce a rendere visibili le relazioni di potere.

Un piccolo esempio di questo ce lo suggerisce John Berger, un critico d’arte inglese che ha scritto diversi libri sul tema delle immagini e della visione, quando sottolinea come nella rappresentazione della donna e dell’uomo nella pittura europea si espliciti una relazione di potere per la quale l’uomo è colui che guarda, dominando, la donna è colei che appare.

Questa pittura riflette la differente importanza sociale attribuita, dalla cultura occidentale, ai due sessi.

Lo sguardo dell’uomo è l’espressione del potere.

La figura femminile è il guardato, è l’oggetto che si lascia guardare.

Stilisticamente possiamo aggiungere che, in questa pittura, colui che guarda – l’uomo – non è quasi mai rappresentato nell’atto di farlo.

Come le Femen o le Guerilla Girls hanno ricordato ai direttori di museo attraverso delle performance visuali (il seno nudo usato come una lavagna per le Femen, delle maschere da gorilla per le Guerilla Girls), la donna è stata il soggetto principale del nudo nella pittura europea…ed era ora di interrompere questo sfruttamento del corpo femminile.

 

Aggiungiamo che, nonostante i mezzi della rappresentazione visuale siano cambiati, non lo è il modo di vedere e di dominar il femminile. Questo fatto vuol dire molte cose.

Nel nostro contesto vuol dire che la modernità da ancora per scontato che lo spettatore ideale sia un uomo.

In Gender Advertisements del 1979, Irvin Goffman, nell’analizzare i modi con cui sono usati dalla pubblicità le differenze sociali e di genere, osserva che i generi, per essere più efficaci, sono deliberatamente rafforzati nelle immagini pubblicitarie, finendo per diventare caricaturali.

Un esempio importante, sempre a proposito del potere delle immagini, è il modo con cui la cultura occidentale ha veicolato il concetto di civiltà e di come la fotografia colonialista (spesso spacciata per antropologica) ha diffuso in Europa l’immagine del selvaggio per giustificare e legittimare il razzismo e la violenza colonialista.

Infine, un capitolo a sé è quello dalla visualizzazione delle guerre e dei conflitti – a cominciare da quelli recenti medio-orientali – attraverso un giornalismo embedded, guidato nei suoi reportage da militari esperti in comunicazione e fake new.

Questi esempi dimostrano che il punto di vista è una specie di potere …il potere di affermare il proprio punto di vista, perché vedere equivale a controllare.

Essere visto equivale a essere controllato.

In questa ottica il massimo del potere si situa là dove si può vedere tutto senza essere visto.

Un fatto che ha generato il convincimento che la società dell’immagine è, come dicono gli americani, un grande fratello (big brother).

In ogni modo, la vita corrente nei paesi industrializzati è sempre più controllata dalle telecamere. Da quelle degli autobus a quelle degli shopping malls.

Da quelle delle arterie di traffico a quelle dei bancomat o degli edifici pubblici.

Questo fenomeno – nell’era degli schermi visuali – fa diventare il “punto di vista” un fattore centrale.

Significa che non dobbiamo limitarci all’esame del regime scopico, ma dobbiamo considerare che il potere di visualizzare – dunque, di veicolare dei significati – è un oggetto di negoziazione socioculturale.

Questo perché la visualizzazione non avviene nel vuoto, ma è sempre all’interno di una cultura.

Se è vero che le immagini sono una interpretazione del mondo è anche vero che la cultura dipende dall’interpretazione che i suoi membri danno a ciò che li circonda e al senso che finiscono per attribuire al mondo che abitano.

La questione è: come agiscono le immagini?

Partiamo da una constatazione.

Se è vero che il mondo sta acquisendo – grazie al digitale – una dimensione essenzialmente visuale il problema è che ci sono molte incertezze su ciò che significa visuale.

Molti studi sull’argomento si limitano a riflettere sugli effetti dei media, vale a dire sulla produzioni di immagini che entrano nei processi di costruzione della realtà sociale.

Altri studi si focalizzano sulla realtà virtuale vissuta come se fosse una nuova realtà.

Sono invece carenti gli studi sugli effetti che la dimensione visuale ha sulla vita sociale e sulla produzione della cultura.

In sostanza:

Studi che spiegano come agiscono (e comunicano) le immagini sulla costruzione dei significati. ( dai media ai muri della città, ai corpi, agli oggetti, ai segnali urbani, alla pubblicità, alle vetrine, ai prodotti artistici…)

– Come agiscono sulle norme e i valori.

– Sulla regolazione dell’interazione e dei processi di sociabilità.

– Sull’affermazione delle differenze e delle appartenenze, e sui percorsi di costruzione delle identità.

È un problema complesso perché la visione di un’immagine avviene sempre in un contesto sociale che ne condiziona l’impatto, con la conseguenza che il tipo di visione percepita – in base al contesto sociale – cambia il suo significato, così come il modo di vederla ne modifica gli effetti.

Un conto è vedere un film o una partita di calcio sdraiati in un letto, un conto è vederli in un cinema o sullo schermo in una piazza.

Chi guarda delle immagini, poi, ha un suo modo di guardarle e questo modo cambia i loro significati e le loro dinamiche di negoziazione.

Per comprendere meglio questi punti va tenuto presente che, in termini fenomenologici, le immagini non sono né vere, né false, ma strutture interpretative che dipendono dal modo con le quali si usano e da chi le usa.

Va aggiunto che la natura delle immagini è ambigua e questa ambiguità produce sullo spettatore un impatto emotivo molto forte e spesso violento.

Questa circostanza si verifica soprattutto quando il significato denotativo e il significato connotativo non sono separabili l’uno dall’altro.

acciamo un esempio.

Se osserviamo la fotografia di un bambino del terzo mondo affamato e ammalato (aspetto denotativo)immediatamente non possiamo non pensare a tutti i bambini che muoiono di fame e sono malati (dimensione connotativa).

Roland Barthes, che negli anni ’80 si occupò di questi temi, mise in luce il carattere polisemico delle immagini, vale a dire la molteplicità dei loro significati connotativi che possono essere compensati o dirottati dall’uso delle didascalie che, in chiave gnoseologica giocano il ruolo di un significato denotativo.

Ricordiamo che il linguaggio verbale ha un potere di gestione delle potenzialità espressive delle immagini grazie al fatto che esso possiede un codice connotato basato su una logica razionale, costruito su una grammatica e una sintassi, scomponibile in segni, che rappresentano il suo meccanismo interpretativo.

Al contrario, la polisemia del linguaggio visuale, scrive Barthes, rimanda alla debolezza o alla mancanza di un codice e all’assenza di un contesto interpretativo esplicito.

Questo fa si che il significato di un’immagine è contestuale, soggettivo e interpretabile in molti modi.

Ritorneremo su questo tema quando parleremo delle origini e degli ambiti di ricerca della Scuola di sociologia di Chicago che per prima ricorse alle immagini come strumento di documentazione e di studio, soprattutto per quanto riguarda il lavoro operaio giovanile, la delinquenza di strada, la prostituzione. le periferie urbane e l’immigrazione.

*******************

Procediamo, invece, con la relazione vedere/sapere, partendo da una considerazione: noi tutti siamo immersi nel vedere.

La vista è il senso più usato nel nostro rapporto con il mondo ed è quello che gestisce i nostri rapporti con gl’altri.

Tutte le nostre attività implicano il vedere e fanno della cecità un oggetto d’angoscia, una catastrofe esistenziale.

Perdere la vista significa essere emarginati dal modello culturale organizzato intorno alla vita corrente.

Ancora oggi in moltissime lingue il termine “cieco” è una metafora negativa perché l’accecamento è percepito come una mancanza di lucidità.

Di contro, vedere è capire.

I modi di vedere sono molteplici, si può dire che ispessiscono la significazione, aprendo alle complessità del mondo e colmando le distanze.

L’acutezza dello sguardo ha però i suoi limiti.

Paradossalmente è un senso ingenuo, perché è spesso vittima delle apparenze.

È ingenuo perché quando guardiamo senza il giusto distacco, prendiamo spesso le lucciole per lanterne, perché sa trasformare il mondo in immagini, ma poi non sa distinguerle dai miraggi.

In ogni caso è una condizione essenziale per valutare la realtà, tanto che vedere è credere.

Vedere è ciò che salta agl’occhi, ciò che è e-vidende.

Il verbo vedere deriva dal latino videre, ma alla base di videre c’è veda – io so – che ha la stessa radice indo-europea, da cui deriva evidenza – ciò che è visibile – e provvidenza – che è il prevedere divino, ovvero, l’espressione della sovranità.

Restando agli etimi, in greco la teoria è una contemplazione e il theoros è lo spettatore.

Quanto a speculare, è un verbo che deriva da specula, come un tempo era chiamato il luogo dal quale si osserva.

Lo sguardo appare, in questo contesto, una volontà di sapere, un desiderio di dare un senso.

Così lo sguardo è poiesis, è azione, è bisogno di capire.

Lo sguardo, poi, ha la proprietà di essere tattile, di creare contatti.

I rapporti amorosi così come quelli gerarchici conoscono bene la potenza dello sguardo, nello stesso modo il mondo femminile conosce con fastidio e rassegnazione l’essere osservato e valutato.  

Nelle culture pre-moderne lo sguardo era considerato una forza capace di piegare il mondo al suo volere.

Non per caso, il malocchio (come è detto il potere malefico dello sguardo) è condiviso da numerose culture, come se lo sguardo fosse in grado di pietrificare per poter mantenere il suo controllo sul mondo.

Anche mangiare con gl’occhi non è solo una metafora.

Alcune culture prendono questa metafora alla lettera, perché il vedere è una porta spalancata sul desiderio, un atto che si percepisce, come avvertono le persone che sono spiate.

È di fatto un atto fastidioso che coinvolge sia il soggetto che l’oggetto del desiderio.

Ha scritto Sigmund Freud nei Tre saggi sulla teoria sessuale:

L’impressione ottica costituisce la via attraverso la quale è risvegliato l’eccitamento libidico. … La zona più lontana dall’oggetto sessuale, l’occhio, si trova più spesso di tutte le altre nella condizione di essere stimolata da ciò che noi chiamiamo bellezza.

Tuttavia non occorre conoscere Freud per sapere che l’amore rende ciechi, perché il desiderio deforma e riformula per meglio desiderare.

Nella nostra cultura la bellezza è considerata una virtù e i criteri che la determinano variano secondo le epoche e le culture.

C’è però una costante, subordinano la donna allo sguardo dell’uomo, perché la bellezza è soprattutto un fatto culturale che, a differenza dell’uomo, la donna sa rappresentare.

In generale l’obiettivo dei sensi è produrre senso.

Ma per la vista produrre senso significa imparare a vedere.

Alla nascita il bambino non coglie il significato delle forme che gli stanno intorno.

Poi comincia a discriminarle partendo dal volto della madre.

Qui c’è un paradosso logico perché per riconoscere si deve conoscere.

Per mesi la vista del neonato è meno sviluppata dell’udito e del tatto (con il seno materno).

Poi prende il sopravvento e diviene un elemento fondamentale della sua educazione e del suo rapporto con il mondo, ma per diventarlo è necessario che la parola degli adulti e il senso del tatto la indirizzino.     

Il vedere non è un atto passivo, ma un comportamento attivo.

Quando un oggetto si vede male (per via della distanza, della forma o per le cattive condizioni di visibilità) chi guarda si sposta, strizza gli occhi, si protegge dalla luce diretta per vedere meglio.

In questo modo figure informi possono diventare familiari.

È ciò che sta alla base del test di Rorschach, usato in psichiatria come strumento per catalizzare le fantasie.

Le macchie sulle tavole del test, prive di un significato preciso, vengono offerte all’immaginario del paziente e le sue risposte rivelano le sue preoccupazioni, i suoi desideri, le sue angosce, i suoi incubi.

Diciamo che di per sé queste macchie non significano nulla, è l’individuo attribuisce loro un significato in funzione della sua personalità.

Nel Trattato della pittura Leonardo da Vinci (1452-1519) aveva intuito questo fatto. Scrive:

Se tu riguarderai in alcuni muri imbrattati di varie macchie o pietre di vari colori misti…potrai su di loro vedere similitudine di diversi paesi, profili di montagne, fiumi, alberi, pianure, grandi valli e colli in diversi modi. Ancora vi potrai vedere battaglie e atti di figure, strane arie di volti e abiti e infinite cose, le quali potrai riprodurre.

Per le immagini il significato viene sempre dopo, o meglio, è lo sguardo che fa emergere una Gestalten del guardato.

In questo modo la vista, filtrando ciò che percepisce, rende il mondo pensabile.

Più che un meccanismo di registrazione (la vista) è un’attività di pensiero.

O, semplicemente, gli occhi servono per realizzare un continuo lavoro di costruzione di un senso.

Il filosofo francese Pierre-Maxime Schuhl (1902-1984) in L’immaginazione e il meraviglioso: il pensiero e lo sguardo, ha scritto: Saper guardare è il segreto dei processi gnoseologici.

Cosa significata?

Che prima di vedere occorre imparare a riconoscere i segni del vedere come si fa per una lingua.

Appare scontato, ma la lettura di un’immagine su uno schermo richiede la conoscenza dei codici di percezione.

L’etnocentrismo occidentale si è sempre vantato dell’universalità delle sue concezioni a proposito delle immagini e della prospettiva, attribuendo le difficoltà a comprenderle, da parte di altri gruppi sociali, a una loro inferiorità culturale o intellettuale.

Se in molte culture cosiddette primitive, non abituate alla lettura delle immagini, è difficile operare una distinzione tra finzione e realtà, che dire allora degli spettatori parigini del Grand Café che, nel dicembre del 1895, fuggirono terrorizzati davanti al film dei fratelli Lumière sull’ingresso di un treno nella stazione di La Ciotat in Costa Azzurra?

******************

Come insegna la gnoseologia, la scienza muta la nostra comprensione della realtà in due modi.

Il primo è definito estroverso, perché si riferisce a ciò che ci circonda del mondo materiale.

Il secondo è definito introverso perché riguarda la nostra condizione umana e ciò che siamo o pensiamo di essere.

In quest’ottica esaminiamo tre rivoluzioni, del millennio che ci siamo lasciati alle spalle e che hanno avuto un forte impatto sul mondo e su quello che siamo, trasformando per sempre la nostra storia culturale e il nostro modo di percepirci.  

Fino a sei secoli fa eravamo abituati a pensare di essere al centro dell’universo, messi lì dove eravamo da un dio-padre e creatore onnipotente.

Era una pietosa illusione che ci confortava e ci faceva convivere con l’angoscia generata dalla coscienza del tempo e dalla inevitabilità della morte.

Nel 1543, il matematico e fisico polacco Niccolò Copernico pubblicò un trattato sulla rotazione dei corpi celesti.

Quando questo libro uscì nessuno immaginava che dopo aver scosso il nostro modo di vedere la terra e i pianeti avrebbe dato l’avvio a una rivoluzione sul modo di comprendere noi stessi.

I fatti, però, sono quello che sono.

La sua cosmologia eliocentrica spodestò la terra dal centro dell’universo costringendoci a riconsiderare le nostre opinioni e il nostro modo di rapportarci ad essa, lasciandoci sgomenti.

Dovemmo accettare il fatto che la terra è un piccolo pianeta fragile e nella ragione trovammo la forza per studiarlo. Studio che prosegue ancora oggi con l’esplorazioni spaziali.

La seconda rivoluzione avvenne nel 1859 quando Charles Darwin pubblicò L’origine delle specie.

In questo libro si riassumevano anni di esplorazioni scientifiche sul campo, da cui Darwin dedusse che ogni specie vivente è il risultato di un’evoluzione da progenitori comuni, attraverso un processo di selezione naturale.

In questo modo con Darwin la parola evoluzione acquistò un nuovo significato ritenuto da molti sgradevole e insopportabile. Un significato che molte religioni ancora oggi rifiutano o accettano solo parzialmente.

Tuttavia, sebbene fossimo coscienti di non essere più al centro dell’universo, sebbene avessimo dovuto ammettere di essere poco più che animali, eravamo ancora padroni dei nostri contenuti mentali.

La nostra capacità di autocoscienza, vale a dire di saper elaborare una coscienza di sé, ci dava ancora un posto speciale nell’Universo.

“Penso dunque sono”, aveva affermato Cartesio e l’introspezione era considerata un viaggio interiore alla scoperta di sé.

Ci pensò Sigmund Freud a liquidare questa illusione.

Questa terza rivoluzione mostrò che la mente è inconscia e incontrollabile.

Dimostrò che ciò che facciamo è per lo più il frutto dell’inconscio e che i cosiddetti stati coscienti sono utilizzati per dare una giustificazione razionale alle nostre azioni.

In altri termini, scoprimmo che non siamo liberi neanche nella nostra coscienza.

Questo perché la coscienza ubbidisce più all’inconscio che a noi, svalutando ciò che riteniamo il frutto della volontà.

In ogni modo, dopo queste tre rivoluzioni, ci restava l’intelligenza.

Anche se è una proprietà difficile da definire, ci pone in una posizione di assoluto vantaggio tra le forme viventi.

Con essa abbiamo imparato a costruire macchine, sviluppare progetti e a utilizzare le forme della tecnica.

Blaise Pascal, che visse nella prima parte del XVII secolo, inventò la macchina aritmetica – più conosciuta come la pascalina – con la quale si potevano realizzare la quattro operazioni.

Qui, va notata una circostanza. Il metodo di calcolo inventato da Pascal si basa sui complementi ed è analogo a quello che seguono oggi i computer.

La pascalina ottenne subito un grande successo e influenzò un altro grande matematico e filosofo del XVII secolo, Gottfried Leibniz.


Gottfied Leibniz (Lipsia 1646 – Hannover 1716) è stato un matematico, filosofo, logico, giurista storico e magistrato tedesco di origine soroba o serba.

A lui dobbiamo il termine di funzione che egli usò per individuare le proprietà di una curva.

Assieme a Newton, Leibniz è colui che sviluppo il calcolo infinitesimale e, in particolare, il concetto di integrale.

È considerato il precursore dell’informatica e del calcolo automatico e fu l’inventore di una calcolatrice meccanica detta macchina di Leibniz .

E’ considerato uno dei più grandi esponenti del pensiero occidentale.


Ricordiamo che fu Leibniz a inventare il sistema dei numeri binari e che, per questo è considerato il primo scienziato dei computer.

Tornando a Pascal e in estrema sintesi, pensare era ragionare e ragionare era far di conto.

La sua macchina era in grado di farlo.

In prospettiva posiamo affermare che i germi di una quarta rivoluzione erano stati gettati.

Pascal non poteva immaginare che avremmo costruito macchine in grado di superarci nella capacità di processare informazioni dal punto di vista logico.

Ciò che non era pensabile al tempo di Pascal diventò evidente con il lavoro di Alan Turing, il protagonista della quarta rivoluzione.

Come conseguenza delle sue ricerche, Turing ci ha spodestato dal regno del ragionamento logico e dalla capacità di analizzare grandi volumi di dati, agendo in modo conseguente.

Con il risultato che oggi non siamo più gli indiscussi padroni del mondo dei dati e del loro uso.

La parola computer è a questo riguardo significativa.

Tra la fine del XVII secolo e il XIX era sinonimo di persona che svolge dei calcoli.

Il termine computer infatti è il nome dell’agente del verbo to compute.

L’etimo latino è composto da com / cum (insieme) e da putare (tagliare, rendere netto – da cui anche potare), per estensione, significa: confrontare (o comparare) per trarre il netto della somma.

In sostanza, il termine computer indicava originariamente una persona incaricata di eseguire dei calcoli.

Fu per Turing che, negl’anni ’50 del secolo scorso, la parola computer perse il suo riferimento all’uomo e divenne sinonimo di macchina programmabile, ovvero, di macchina di Turing.

Questa quarta rivoluzione ha messo in crisi il convincimento sulla nostra unicità e ci ha ridisegnato come organismi informazionali (inforg) reciprocamente connessi e, al tempo stesso, parti di un ambiente informazionale (infosfera) che condividiamo con altri agenti naturali e artificiali.

Agenti che processano informazioni in modo logico e autonomo.

Da ciò si può dedurre che, molto probabilmente, la prossima generazione, che abiterà le aree temperate del pianeta, sarà la prima a non considerare più rilevante la distinzione tra ambiente online e offline.

Una distinzione che oggi appare opaca.

In ogni modo, se la nostra casa è dove sono i nostri dati, allora vuol dire che, senza rendercene pienamente conto, viviamo già da tempo su Google Earth o nel cloud.

In informatica con il termine cloud computing (in italiano nuvola informatica) si indica un paradigma di erogazione di servizi offerti su domanda da un fornitore ad un cliente finale attraverso la rete Internet (come l’archiviazione, l’elaborazione o la trasmissione dati), a partire da un insieme di risorse preesistenti, configurabili e disponibili in remoto.

Questo non vuol dire che la rivoluzione digitale ci trasformerà in un’umanità di cyborg.

Un numero di telefono solo nei film si può digitare per mezzo di una tastiera virtuale che appare sul palmo di una mano, più realisticamente lo possiamo comporre pronunciandolo, grazie al fatto che il nostro smartphone ci capisce.

Per comprendere, con una metafora, la logica degli ambienti informazionali dobbiamo pensare al fatto che fin da oggi e in molti contesti le ICT (le tecnologie dell’informazione e della comunicazione) hanno cominciato ad essere la squadra che gioca in casa (nell’infosfera) con noi che giochiamo in trasferta.

*******************

Intorno alla metà del ‘700 in molte città europee si cominciò a numerare, strada dopo strada, le abitazioni in ordine crescente, erano nati i numeri civici.

Più che per problemi postali o dei singoli cittadini questo provvedimento veniva incontro alle richieste del fisco e delle forze dell’ordine per rintracciare e identificare facilmente le persone.

Ci furono, soprattutto nella mitteleuropa, molte proteste di cittadini contrari a questa misura che in alcune circostanze aveva anche un aspetto discriminatorio, come nel caso degli ebrei di Boemia, obbligati a usare per la numerazione delle case i numeri romani anziché quelli arabi.

Non è difficile immaginare i mille sotterfugi che furono inventati, come rompere la targa con il numero, metterla capovolta, così che il sei diventa nove, imbrattarla di vernice o di fango, eccetera.

A Parigi, fu Napoleone che introdusse i numeri civici nel 1805.

Charles Baudelaire – il poeta de I Fiori del male – definì questa numerazione come un’intrusione criminale nella vita quotidiana dei cittadini.

Possiamo aggiungere, non senza un qualche interesse, considerato che era perennemente assediato dai creditori che volevano essere pagati e che lui evitava cambiando in continuazione il suo indirizzo.

Walter Benjamin nel suo Parigi, capitale del diciannovesimo secolo, racconta che nei quartieri proletari questa misura fu subito percepita come repressiva e che gli artigiani – con in testa quelli del fouburg Saint-Antoine – si rifiutarono di usare il numero della loro abitazione come indirizzo.

L’analisi di Benjamin in realtà è più complessa.

Per questo grande saggista europeo anche l’invenzione della fotografia è un punto di svolta nello sviluppo del controllo amministrativo e identificativo, ma è un argomento che dovrebbe essere affrontato in modo specifico.

Le osservazioni sulla nascita della numerazione stradale ci servono per capire meglio l’enorme distanza – tecnica, culturale e politica – che separa questi anni dall’epoca nella quale viviamo.

Un’epoca caratterizzata dalle identità digitalizzate e geolocalizzate.

Possiamo dire che, nella storia dell’umanità, mai come oggi si è stati in possesso di una quantità così enorme di informazioni immagazzinate sui fenomeni e i comportamenti sociali.

Informazioni, che tra l’altro, continuano ad affluire incessantemente nell’area dei Bigdata.

Come è noto da almeno una generazione, con piccole quantità di dati, algoritmi e macchine di analisi, siamo in grado di estrapolare informazioni mirate, ma i Bigdata hanno reso obsoleto questi metodi mettendoci nella condizione – inedita – di possedere una quantità di dati maggiore di quella che i mezzi più accessibili ci permettono di gestire.

Vediamo qualche grandezza.

Nel 2000 – l’anno di nascita dei nativi digitali – le informazioni registrate erano per il 25 per cento supportate da un formato digitale e per 75 per cento contenute su dispositivi analogici (carta, pellicola, nastri magnetici, ecc…)

Nel 2013 le informazioni digitalizzate erano stimate intorno ai 1200 exabyte, vale a dire erano il 98 per cento, mentre quelle analogiche si erano ridotte al 2 per cento.

La mole delle informazioni digitalizzate fino ad oggi è tale che se le stampassimo su carta coprirebbero una superficie grande come sessanta Stati Uniti.

A parte il volume delle informazioni c’è da considerare che questi dati fanno capo a pochissimi soggetti, sono di fatto concentrati in pochissime mani.

Cosa vuol dire?

Che Facebook – per fare un esempio – possiede oggi il più grande insieme di dati mai assemblati sul comportamento sociale delle persone.

CHE, con molta probabilità, ALCUNE DELLE NOSTRE INFORMAZIONI PERSONALI NE FANNO PARTE ed altre, proprio in questo momento, vi stanno confluendo.

***************

C’è una correlazione importante che si sta sviluppando tra le ICT digitali (tecnologie dell’informazione e della comunicazione)  e quella che in filosofia è chiamata la coscienza del sé.

L’espressione ITC indica l’uso della tecnologia nella gestione e nel trattamento dell’informazione, specie nelle grandi organizzazioni.  

In particolare riguarda l’uso di tecnologie digitali che consentono all’utente di raccogliere, creare, memorizzare, scambiare, utilizzare e processare informazioni (o “dati”) nei più disparati formati: numerico, testuale, audio, video, immagini e molto altro.

Ricordiamo, in sintesi, qual è il ciclo dell’informazione:

Generare – Raccogliere – Registrare e immagazzinare – Processare – Distribuire e trasmettere – Usare e consumare – Riciclare e cancellare.

Torniamo in argomento questa correlazione coinvolge sia il nostro modo di confrontarci con l’Altro da noi, che il nostro modo di relazionarci al mondo o, meglio, alla natura materiale delle cose.

Oramai è un dato di fatto. Da almeno una ventina di anni, grazie al digitale, siamo circondati (molti dicono immersi) “da – e – in” nuovi e inediti geo-scenari sociali e culturali, con importanti risvolti economici e politici.

Facciamo qualche esempio.

– Siamo circondati dalle nanotecnologie.

Le nanotecnologie sono un ramo della scienza applicata alla tecnologie che si occupano del controllo della materia su una scala dimensionale nell’ordine del nanometro, ovvero un miliardesimo di metro e dalla progettazione e realizzazione di dispositivi in tale scala.

– Siamo inseriti nell’internet delle cose.

Nelle telecomunicazioni l’internet delle cose è un neologismo riferito all’estensione di internet al mondo degli oggetti e dei luoghi concreti.

– Siamo immersi dal Web semantico.

Con Web semanticoun termine coniato dallo scienziato inglese Tim BernersLee – si intende la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini, ecc…) sono associati ad informazioni e a dati che ne specificano il contesto semantico in un formato adatto all’interrogazione e all’interpretazione.

In questo modo, con l’interpretazione del contenuto dei documenti da parte del Web semantico saranno possibili sia ricerche più evolute delle attuali – basate oggi sulla presenza nel documento di parole chiave – sia operazioni specialistiche, come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice collegamento ipertestuale.

– Ancora, siamo utenti del cloud computing.

Una tecnologia che, abbiamo già visto, consente di usufruire, tramite un server remoto, di risorse software e hardware (come le memorie di massa per l’archiviazione di dati), il cui utilizzo è offerto come servizio da un provider tramite abbonamento.

– Possiamo usufruire di giochi basati sul movimento del corpo.

– Di applicazioni per gli smartphone, per i tablet, per il touch screen.

– Abbiamo la possibilità di usufruire del GPS, un sistema di posizionamento satellitare che permette in ogni istante di conoscere la longitudine e la latitudine di un oggetto o di una persona.

Ricordiamo che i dispositivi muniti di un ricevitore GPS sono tantissimi: navigatori satellitari, smartphone, tablet, smartwatch, solo per citarne qualcuno.

GPS è l’acronimo di Global Positioning System. Si tratta di un sistema per il posizionamento globale.

Grazie al GPS è possibile localizzare oggetti e persone.

Il tutto avviene tramite i satelliti che stazionano nell’orbita terrestre e conentono di conoscere in ogni istante l’esatta ubicazione di un luogo.

La localizzazione è possibile perché i satelliti contengono un orologio atomico che calcola al millesimo di secondo il tempo che passa tra la richiesta effettuata dal ricevitore GPS e le risposte ottenute dai satelliti stessi.

– Non da ultimo, siamo immersi nella realtà densificata.

Una realtà abitata da droni (vale a dire oggetti volanti radiocomandati), auto che si guidano da sole, stampanti 3D, social media, cyber-armi, eccetera.

Sono tutti argomenti che costituiscono un terreno di polemiche tra tecnofili e tecnofobici, che alimentano un’ampia discussione tra coloro che si domandano che cosa non riusciamo o non ci e consentito di comprendere e che cosa si nasconde dietro tutto questo.

Soprattutto, possediamo una prospettiva ermeneutica (una conoscenza) per comprendere e controllare tutto questo?

La difficoltà maggiore è riuscire a capire quanto queste tecnologie sono estese e come hanno potuto in così breve tempo diventare forze ambientali, antropologiche, politiche, sociali e, non da ultimo, culturali, vale a dire, capaci di interpretare e di trasformare il qui ora dell’esistenza.

 Queste nuove tecnologie, a differenza di quelle arcaiche (analogiche), hanno la capacità:

– di creare e plasmare la realtà fisica e intellettuale,

– di modificare la nostra capacità di giudizio,

– di cambiare il nostro modo di relazionarci con gl’altri,

– di modificare la nostra Weltanschauung,

– ma soprattutto, a differenza di quelle arcaiche o analogiche, sono in grado di fare tutto questo in modo pervasivo, profondo e continuo.

In conclusione, volenti o nolenti – noi globalizzati – ci troviamo a vivere nell’infosfera all’alba di un millennio che ancora non comprendiamo.

I punti critici sono noti.

Saremo capaci di ottenere il massimo dei vantaggi e il minimo degli svantaggi dalle ICT?

Saremo preparati ad anticiparne i rischi dal punto di vista della vita corrente?

Avremo la necessaria competenza per affrontare i pericoli che corriamo nel trasformare il mondo in un ambiente sempre più digitale?

In linea generale, da subito e a ragione della loro natura, queste tecnologie ci costringeranno dentro spazi fisici sempre più inconsistenti e concettualmente sempre più limitati.

Ma perché è necessario saper rispondere a questi interrogativi?

Sostanzialmente perché le novità non danno più vita a delle fratture nella continuità storica che siano facilmente e a breve termine comprensibili, ricomponibili o assorbibili.

In linea di massima per comprendere queste novità abbiamo bisogno di una nuova filosofia della natura e della storia, di una nuova antropologia e di una nuova scienza della politica.

Diciamo che ripensare il presente e pensare il futuro in un mondo sempre più digitalizzato richiede una nuova filosofia dell’informazione.

Come sappiamo la forma storica della società dell’informazione ha le sue radici nella scrittura e nell’invenzione della stampa e dei mass media.

Cioè nella capacita di REGISTRARE e di TRASMETTERE.

Oggi, con il digitale questa società si è evoluta con una nuova capacità, quella PROCESSARE.

Una capacità che, paradossalmente, ha contribuito a generare nuove forme di DEFICIT COGNITIVI.   

I paesi del G7 – Canada, Francia, Germania, Giappone, Gran Bretagna, Italia, Stati Uniti – e la Cina (in realtà questi paesi sono molti di più, dovremmo aggiungere almeno la Russia europea, l’Australia, la Corea del Sud e molto presto l’India), costituiscono quella che si chiama una società dell’informazione.

Perché?

Perché più del settanta per cento del PIL (cioè del loro prodotto interno lordo, un indice che misura il livello dei beni e servizi di una nazione, anche se non rappresenta il benessere) dipende da beni intangibili – vale a dire che concernano l’informazione – e non da beni materiali, come sono quelli del settore agricolo e manifatturiero.

***********************

Vediamo alcuni temi, a partire dalla definizione di algoritmo, legati all’infosfera.

L’algoritmo è un processo logico-formale che si struttura articolandosi in una serie di passaggi logici elementari.

Questo processo conduce a un risultato, definito da un numero finito di passaggi.

(L’espressione di algoritmo deriva dalla latinizzazione del nome del matematico persiano Muhammad ibn Musa al-Khwarizmi, vissuto nel nono secolo dell’era comune.)

Lo schema logico di un algoritmo si può esprimere con la forma if / then – SE/ALLORA.

Nel mondo che viviamo, anche se non abbiamo una conoscenza degli algoritmi, sappiamo che ogni passaggio logico di un ragionamento comporta una decisione che influenzerà il passaggio successivo.

C’è un gioco che illustra questo. E’ la morra cinese.

Per vincere a questo gioco i passi elementari possibili sono tre:

Se sasso, allora carta. Se carta, allora forbice. Se è forbice, allora sasso.

Fatte le debite proporzioni, i computer che giocano a scacchi operano nello stesso modo.

A ogni mossa che facciamo un algoritmo cerca le contro-mosse possibili, valuta le possibilità e seleziona la migliore, anche se il programma – non dimentichiamolo – non ha la più pallida idea di che cosa sono gli scacchi.

L’importanza degli algoritmi (cioè di questi processi logico-formali) è esplosa con la nascita dell’informatica.


L’informatica è la scienza che studia l’elaborazione delle informazioni e le sue applicazioni.

Più precisamente, l’informatica si occupa della rappresentazione, dell’organizzazione, del trattamento automatico dell’informazione.

Il termine deriva dal francese informatique (composto di INFORMATion e automatIQUE, informazione automatica) coniato da Philippe Dreyfus nel 1962.

L’informatica è una scienza indipendente dal computer che ne è solo lo strumento, ma è facile capire che lo sviluppo dell’informatica è stato ed è tuttora strettamente legato all’evoluzione del computer.

Pur avendo radici storiche antiche l’informatica si è sviluppata come disciplina autonoma solo a partire dagli anni ’60 del secolo scorso, sulla spinta innovativa dei sistemi di elaborazione e del progresso nella formalizzazione del concetto di procedura di calcolo, che possiamo far risalire al 1936, quando Alan Turing elaborò un modello di calcolo oggi noto come macchina di Turing.


Dunque, in linea generale possiamo dire che i computer, i tablet, gli smartphone e gli oggetti connessi sono costruiti secondo uno schema teorico chiamato macchina di Turing.

In realtà questa macchina non è un oggetto, ma un concetto logico astratto elaborato dal matematico inglese Alan Turing.

Si compone di due parti.

– La prima parte è capace di interpretare una famiglia di algoritmi.

– La seconda è capace di immagazzinare i dati ai quali questi algoritmi si applicano o che da loro si ottengono.

Così, dal punto di vista dell’informatica, un computer non è altro che la realizzazione fisica di una macchina di Turing.

In questa macchina i dati sono scritti su una memoria – l’hard disk – e processati da circuiti logici chiamati processori.

Questi processori sono la parte della macchina che è capace di compiere i passaggi logici, come estrarre i dati immagazzinati nella memoria, interpretarli ed eseguire le istruzioni ricevute.

In pratica, qualsiasi programma che fa funzionare un computer o che può essere fatto funzionare da un computer non è altro che un complesso di algoritmi.

Non è difficile comprendere come alla base di tutti questi processi c’è un problema, la velocità di calcolo.

L’aumento importante delle capacità di calcolo dei processori ha permesso oggi di poter far funzionare, su macchinaadhoc, algoritmi sempre più complessi, vale a dire dipendenti da più variabili.

La rete, di contro, ha permesso di mettere insieme una moltitudine di enormi database che nutrono questi algoritmi.

Ci sono vari tipi di algoritmi.

I due più popolari sono gli algoritmi di ottimizzazione, che cercano la soluzione che minimizza o massimizza una funzione.

Gli algoritmi probabilistici, molto diffusi grazie alla possibilità che hanno di trattare grandi masse di dati (i Big Data).

Big data è un termine adoperato per descrivere l’insieme delle tecnologie e delle metodologie di analisi di dati massivi.

Il termine indica la capacità di estrapolare, analizzare e mettere in relazione un’enorme mole di dati eterogenei, strutturati e non strutturati, per scoprire e portare alla luce i legami tra fenomeni diversi e prevedere quelli futuri.

Gli algoritmi probabilistici sono detti anche predittivi, in quanto sono strumenti capaci di prevedere la probabilità dell’insorgenza di un evento – come sono, per fare qualche esempio conosciuto, le epidemie di influenza, il diffondersi di malattie infettive, gli ingorghi stradali o l’esplodere di crisi finanziarie.

I suggerimenti per gli acquisti che troviamo sulla schermata di un computer (ti potrebbe interessare anche… oppure, sono spesso comprati insieme, ecc…) si basano sulla stessa logica algoritmica, essi analizzano gli eventi, come sono le visualizzazioni, i click o gli acquisti correlati a specifici individui.

C’è un problema etico che è ben illustrato da questa storia vera.

Target – una società americana di vendite per corrispondenza  – fa affidamento sull’analisi dei profili di acquisto di venticinque prodotti al fine di assegnare a ciascun acquirente femmina un tasso chiamato previsione di gravidanza.

Questa profilazione stima la data del parto e invia dei coupon per l’acquisto scontato di prodotti correlati ai diversi stadi della gravidanza.

Ciò causò seri problemi di privacy finiti in tribunale allorché i coupon furono inviati a una famiglia la cui figlia – liceale – non aveva informato i propri genitori del suo stato.

Ritorniamo al tema degli algoritmi.

Possiamo distinguere tre serie di passaggi articolati.

– Quello dei dati in entrata – input.

– Quello dell’algoritmo propriamente detto – che realizza l’elaborazione.

– E quello dei dati in uscita – output.

Ricordiamo che un computer opera esclusivamente o sui dati digitali che esso stesso ha generato in maniera digitale o sui dati che sono stati digitalizzati.

Si tratta di sequenze di bit, indicate con le cifre 0 (zero) 1 (uno) che corrispondono alla presenza o all’assenza di un determinato livello di tensione elettrica all’estremità dei transistor che compongono un computer.

*************************

Vediamo meglio un aspetto dei Big Data.

Come abbiamo accennato rappresentano un insieme di dati quantitativamente enorme, molto vario e in continua e rapida evoluzione.

Il concetto di Big Data nasce alla fine del secolo scorso in corrispondenza all’aumento esponenziale della capacità di trattamento e di salvataggio dei dati che rese disponibile grandi quantità di informazioni sotto forma digitale.

L’unità che misura il volume dei Big Data è il petabyte che rappresenta un milione di gigabyte.

Proviamo a valutare la grandezza di un petabyte.

Una foto in alta definizione occupa cinque millesimi circa di un gigabyte quindi un petabyte può contenere 200 milioni di foto o 250mila pellicole cinematografiche masterizzate in dvd.

Il DVD, sigla di Digital Versatile Disc, originariamente Digital Video Disc, è un supporto di memoria di tipo disco ottico, in via di sparizione.

Un esempio di Big Data sono le informazioni collezionate in tempo reale dai social network, dai grandi mercati online o mediante le applicazioni che usiamo sui nostri telefoni.

Sono, come si può intuire, un’enorme massa di dati acquisiti velocemente e con varie tipologie, quali:

– La localizzazione.

– Il sistema operativo.

Tra queste tipologie ricordiamo:

– Il plugin, cioè, il modulo aggiuntivo di un programma, utilizzato per aumentarne le funzioni.

Il plugin in campo informatico è un programma non autonomo che interagisce con un altro programma per ampliarne o estenderne le funzionalità originarie.  

Ad esempio, un plugin per un software di grafica permette l’utilizzo di nuove funzioni non presenti nel software principale.

– Le preferenze del nostro navigatore.

– Le pagine visitate e il tempo passato su di esse.

– Le foto e i video selezionati.

– I contatti e le e-mail.

– Non da ultimo, le ricerche.

A questo va poi aggiunto tutto il contenuto testuale, audio, video e fotografico postato o condiviso sulla nostra bacheca.

Ci sono poi molti casi di raccolta dei dati utilizzati nel campo della sicurezza e del controllo sociale.

Per fare un esempio, gli algoritmi di riconoscimento facciale – sempre più numerosi nelle stazioni ferroviarie, negli aeroporti in luoghi urbani sensibili – si basano sulla capacità di stoccare e di analizzare in tempi brevi i flussi di dati provenienti da telecamere istallate in questi luoghi o da foto postate su un qualsiasi social network o sito web.

Tra le opportunità più note dei Big Data ricordiamo il deep learning e gli algoritmi predittivi.

Il deep learning (apprendimento profondo) – su cui ritorneremo – è una forma di intelligenza artificiale costituito da algoritmi che consentono a una macchina di prendere decisioni, operando sulla possibilità di far convergere tecniche di calcolo con un’alta probabilità di correttezza o di affidabilità.

Gli algoritmi predittivi, invece, sono algoritmi che permettono di stimare la probabilità di realizzazione per un determinato evento a partire dalle condizioni misurate in un dato momento.

Sono, oggi, molto usati nella prevenzione di diverse specie di malattie a sviluppo lento.

Il cuore della predittività sta nella possibilità di correlare tra di loro eventi fisici di varia natura.

Un esempio negativo e sottovalutato è questo.

Associati alle leggi della fisica gli algoritmi predittivi consentono, con una precisione definita cinicamente chirurgica, di calcolare dove esploderà un missile, conoscendone la potenza, la quantità del propellente, l’alzo del carrello di lancio e il peso, più altri dati contingenti legati al territorio.

Abbiamo poi quello che si definisce un approccio statistico quando la correlazione non viene dedotta dalle leggi della fisica, ma estratta per inferenza da un insieme di dati.

L’inferenza (in generale) è una deduzione intesa a provare o a sottolineare una conseguenza logica.

L’inferenza statistica (o statistica inferenziale), invece, è il procedimento per cui si deducono le caratteristiche di una popolazione dall’osservazione di una parte di essa (detta “campione“), selezionata mediante un procedimento casuale.

In linea generale, più grande è il campione più alta è la probabilità che le correlazioni osservate statisticamente riflettano la legge che regola il comportamento del fenomeno in questione.

È facile comprendere come la novità rappresentata dai Big Data consente di migliorare gli algoritmi predittivi, anche grazie a metodi di deep learning, rendendo questi algoritmi sempre più performanti.

Sul piano sociologico, tra i molti dubbi e problemi che si possono avere sugli algoritmi predittivi, quello che qui importa sottolineare è la questione etica o più in generale politica, perché l’analisi e lo sfruttamento dei Big Data è in mano a pochi grandi gruppi industriali e militari.

Moralmente il problema sta nel fatto che nessuna organizzazione scientifica o politica è messa nella condizione di controllare le inferenze realizzate e le conclusioni o i risultati raggiuntia.

Se vogliamo una corrispondenza, possiamo dire che i Big Data assomiglino a delle forme oracolari pseudo-scientifiche a cui è comodo affidarsi, sia sul piano economico, perchè sono relativamente convenienti, sia per evitare la ricerca e la formulazione di teorie da verificare, molto più onerose, lente, con costi di personale altissimi.

In altri termini, c’è la tendenza al usare i Big Data invece che per avanzare delle tesi o cercare delle verifiche in campo scientifico, per convincere senza dimostrare, partendo dal presupposto che i dati parlano da sé e che è sufficiente saperli interrogare e ascoltare.

La caratteristica dei dati – oltre alla loro quantità – sta nel fatto che essi provengono da fonti diverse e sono “estratti” con metodi diversi.

In questo modo alla fonte costituiscono un dataset complesso e destrutturato, che richiede, per essere usato e sfruttato, elevate capacità di calcolo e di efficienza algoritmica.

Va aggiunto che i dati non provengono solo dagli addetti ai lavori, ma anche dalle azioni quotidiane di milioni di utenti digitali, che non ne sono consapevoli o non se ne rendono conto.

Tutto questo va considerato tenendo presente il carattere pervasivo (nel senso che tende a diffondersi in più di un campo di applicazione) delle nuove tecnologie.

Tecnologie delle quali non siamo capaci – tenendo conto di chi le possiede – di immaginare gli scenari che elaborano e gli scopi di utilizzo, anche se possiamo immaginarli. Per esempio a scopo politico, in periodo elettorale

Non per caso molti sociologi parlano di una dittatura planetaria degli algoritmi che nella sostanza finisce per favorire le disparità economiche e i soprusi socio-politici.

La polizia di Los Angeles, per esempio, sta da qualche tempo a questa parte implementando un programma chiamato Predpol che grazie all’analisi dei dati dovrebbe riuscire a prevedere i crimini o le circostanze criminose.

Per ora i risultati non sono stati soddisfacenti.

Sono risultati molto spesso compromessi dai pregiudizi razziali che hanno accompagnato la raccolta dei dati, ma torneremo su questo importante tema dei bias.

Implementare, dall’inglese (to) implement, è un neologismo che si usa quando un programma si rende eseguibile attraverso la formalizzazione dell’algoritmo o, più in generale, si realizza una procedura, partendo dalla sua definizione logica.

La digitalizzazione (e quindi l’automazione dei processi di controllo) richiede capitali enormi che la rendono un’attività altamente selettiva e qualificata.

Oggi, il danno più grave indotto dalla digitalizzazione lo si verifica nella precarizzazione del lavoro cultuale e cognitivo individuale.

In altri termini la digitalizzazione rende sempre più simbiotico il rapporto tra mente e macchina e accentua l’importanza del lavoro di gruppi eterodiretti.

Ma c’è di più.

La sentimental analysis data mostra come l’estrazione dei dati che determinano i flussi è un lavoro complesso e molto lungo che produce un importante plusvalore.

Nella terminologia marxiana il plusvalore è la differenza tra il valore del prodotto del lavoro e la remunerazione dei lavoratori, differenza della quale, nei regimi capitalisti, si appropriano esclusivamente gli imprenditori.

Questo plusvalore, nel digitale, si forma non solo a partire dal singolo individuo, ma dal valore aggiunto di milioni e milioni di corpi e di menti messi in relazione.

Ricordiamolo:

NELLA CULTURA DIGITALE SE NON PAGHI, IL PRODOTTO SEI TU!

Facebook e Google sono gratis, ma solo per il fatto che a lavorarci siamo anche noi quando li usiamo.  

È una sorta di neopotere, caratteristico delle piattaforme, che ha dato vita a un nuovo potere politico ed economico.

Un neopotere con le sue policy di utilizzo, che di fatto tendono a modificare o a trasformarsi – con sempre maggior frequenza – in leggi o in scontri sopranazionali.

Con l’espressione di policy si indica un insieme di azioni o di non azioni poste in essere da soggetti pubblici – privati o istituzionali – correlate ad un problema collettivo.

In italiano chiamiamo con l’espressione di politica sia l’attività di politics che di policy.  

Queste piattaforme, grazie alla loro tecnologia, forniscono servizi basati su standard che spesso sono superiori a quelli dei servizi classici – sia privati che pubblici – innescando, senza che ce ne rendiamo conto, processi di privatizzazione consensuale, silenziosi e inavvertiti.

Questa è anche la ragione per la quale quelli che controllano il web fanno di tutto per imporsi nella ricerca scientifica e controllare la formazione.

Ma questa è anche la causa di un conflitto in atto e sempre più cruento sul piano legislativo e finanziario – inedito nella storia moderna – tra gli Stati nazionali e le piattaforme transnazionali.

Come nel recente caso di Google in alcuni paesi europei.     

C’è da aggiungere che – in virtù della sua deterritorializzazione – si è anche sviluppata una sorta di paradossale etica hacker che possiamo definire anarco-capitalista e che ha come obiettivo un mercato digitale libero da ogni regolamentazione.

A parte questo, non va dimenticato che l’enorme capacità di calcolo e di elaborazione dei dati consente alle grandi multinazionali dell’informatica di fornire analisi in qualunque settore della conoscenza, potendo attingere non solo alle risorse del proprio database, ma anche alle fonti ad accesso libero.

In questo modo la produzione di dati a mezzo di dati fa si che la volontà di offrire piattaforme aperte è più che altro una forma avanzata di capitalismo travestito da buonismo, nel quale il lavoro individuale si muta in una opportunità di contribuire al loro progresso…quello delle piattaforme!

Questo avviene perché il meccanismo che sta alla base delle nuove forme di intelligenza artificiale è il cosiddetto apprendimento automatico o machine learning.

Per semplificare, mentre nell’algoritmica classica la macchina esegue determinati compiti prefissati da un ordine, nel machine learning l’algoritmo si nutre in modo autonomo di dati che costituiscono la sua materia prima.

Facciamo un esempio, se vogliamo creare un programma che sappia distinguere le foto degli asini da quelle dei cavalli, occorre metterlo in condizione di esaminare un enorme dataset di immagini di asini e di cavalli.

L’algoritmo studierà queste foto contrassegnate da un etichetta che li distingue “riequilibrandosiin continuazione in modo da commettere sempre meno errori possibili di riconoscimento.

Alla fine sarà in grado di distinguere, con buona approssimazione, un asino da un cavallo, ma quello che appare sorprendente, anche se non lo è, da una foto che non ha mai visto.

L’importanza e la delicatezza di questo processo è che può essere applicato a qualunque cosa inerte o vivente.

Sia esso il software per riconoscere una traccia musicale, sia esso un programma per identificare una persona partendo da come cammina o da come parla.

L’unica cosa di cui abbiamo bisogno è un dataste, sufficientemente grande, di informazioni adatto al contesto.

Lo stesso processo può poi essere applicato al sentiment analysis data, ovvero, a quei sistemi sviluppati per determinare il livello di “positività” o di “negatività” di un testo.

Un’analisi importante sia nel mondo della pubblicità commerciale, come in quello della politica che della diplomazia.

*************************

Andiamo avanti.

Non va mai dimenticato che siamo noi, nessuno escluso, produttori di dati e di relazioni che entrano in modo sempre più diretto nei processi di accumulazione capitalista legati ai Big Data o per via di espropriazione o per via di assoggettamento.

Come abbiamo visto è stato Leibniz il primo a cercare di elaborare un modello logico capace di risolvere con un calcolo qualunque problema.

Oggi, per gli ingegneri della Silicon Valley, ma soprattutto per i proprietari dei Big Data e delle macchine di calcolo, questo è un mito che appare se non vicino, perlomeno pensabile.

Un po’ di cronaca.

Nel 2008 su Wired fu pubblicato un articolo di Chris Anderson che annunciava l’era dei Petabyte.

Ricordiamo che il Petabyte è un’unità di misura dell’informazione o della quantità di dati.

Il termine deriva dalla unione del prefisso peta con byte e ha per simbolo PB.

Il prefisso peta deriva dal termine greco penta e sta ad indicare 1000 alla quinta.

Perché sono importanti i Petabyte?

Perché hanno reso obsoleto molti aspetti del metodo scientifico classico, come l’elaborazione di modelli teorici, sostituendoli con l’analisi delle grandi masse di dati.

Perché hanno creato una nuova forma di fiducia verso gli algoritmi e la correlazione statistica delegando – di fatto – alla macchina la capacità di analisi, indipendentemente dalla loro obiettività.

In pratica, gli algoritmi valutano l’efficacia dei manager o degli insegnanti.

Come investire in borsa.

Quando ci ammaleremo e, con buona approssimazione, perché.

Ci ricordano cosa ci piace, quale musica ascoltare, quali libri acquistare.

Dov’è la zona oscura? Il loro potere incontrollato?

Sostanzialmente nel fatto che l’algoritmo, in ultima analisi tende a diventare il nostro mentore, il nostro esperto, il nostro giudice.

Per dirla in maniera più tecnologica l’algoritmo apprende, elabora, confeziona una “scatola nera” capace di valutazioni. Capace di fornire risultati, senza che il programmatore sia a conoscenza dei criteri che portano al risultato finale.

Perché questo processo interessa alla sociologia?

Perché, oggi, per le ragioni più svariate, nella fase di apprendimento la macchina si appropria anche dei bias, cioè delle distorsioni e degli errori che potrebbero trovarsi nel dataset di partenza.

È, questo proposito, un caso di scuola il caso di Tay, il Twitterbot di Microsoft che fu ritirato perché si configurò con bias antisemiti.

In informatica il significato di bot (da robot) si è trasformato nel tempo.

Inizialmente indicava un software usato per svolgere automaticamente attività ripetitive su una rete, ad esempio un mailbot risponde con messaggi automatici a e-mail inviati a uno specifico indirizzo di posta elettronica.

Oggi il bot descrive anche programmi che possono interagire in modo automatico con i sistemi o gli utenti, come i bot sui social che simulano persone reali.

bot di Twitter (Twitter bot) gestiscono in modo automatico gli account e sono programmati per comportarsi come utenti umani: seguono altri account, ri-twittano e generano automaticamente contenuti e se malevoli possono anche diffondere notizie false e sfruttare hashtag e parole chiave degli argomenti più popolari per inserirsi aggressivamente in scambi tra persone reali e provocarne le reazioni.

Molti esperti di comunicazione americani sospettano che dei Twitter bot malevoli siano intervenuti e modificato in modo significativo il risultato delle ultime elezioni presidenziali americane.

In altri termini, il problema – pericoloso, anche se in questo momento di difficile realizzazione – è quello di una pseudo-oggettivazione del giudizio.

Infatti, al pari di un qualsiasi individuo – le cui capacità di analisi e di valutazione sono influenzate dalla sua cultura e da ciò che gli è capitato di vivere – l’algoritmo di machine learning si sviluppa apprendendo.

Per questo le scienze sociali hanno cominciare a considerare con attenzione le implicazioni politiche di questo congegno, ovvero di come un dataset possa essere confezionato ignorando le minoranze etniche, culturali, politiche e sottovalutando le diversità o le circostanze.

Su questo tema, va aggiunto, sono ancora relativamente poche le ricerche che analizzano l’operato delle macchine che si nutrono di opinioni e gusti che riflettono l’opinione dominante e, allo stesso tempo, sono in grado di dar vita a una retorica che appare oggettiva.

Come sostengono gli scettici: Gli algoritmi di deep learning riflettono l’intelligenza o la stupidità di un programma, così come le loro opinioni.

Per questo finiscono o sono indirizzati a confondere le correlazioni con la causalità, cioè, con le relazioni di causa/effetto.
Prima di concludere, vanno sottolineate due cose.

– La prima mostra come lo scontro tra apocalittici e integrati, nell’ambito delle nuove tecnologie digitali, appare, oggi, soprattutto come un conflitto emotivo legato alla sensibilità culturale.

Di contro, occorre considerare che la tecnologia digitale è una realtà autonoma e quindi non va sottovalutato il fatto che essa è, da una parte, modellata sui rapporti di proprietà e di produzione, dall’altra dipendente dalle relazioni tra i poteri e le loro logiche.

Un esempio di scuola che risale al primo secolo prima dell’era comune può essere illuminante.

In questo secolo il matematico Erone di Alessandria concepì una specie di macchina a vapore che se sviluppata avrebbe potuto anticipare la tecnologia a vapore di almeno diciotto secoli.

Questa macchina, però, non trovò nessuna applicazione pratica perché la grande quantità di schiavi a disposizione rendeva superfluo studiare questa tecnologia.

– La seconda cosa è che il mito della neutralità algoritmica discende dal mito della neutralità scientifica.

In realtà come da tempo ha mostrato la teoria critica della società ci sono condizionamenti reciproci tra scienza e i rapporti sociali di produzione.

Il concetto di neutralità, in questo contesto, appare come una forma particolare di feticismo che attribuisce a proprietà oggettive, proprie dei prodotti dell’attività intellettuale e manuale degli uomini, ciò che discende dai rapporti sociali che tra di essi intercorrono.

En passant.

Molti sociologi, a proposito di algoritmi, denunciano l’esistenza di un’autorità algoritmica sull’informazione e la conoscenza.

Parlano di algocrazia (potere degli algoritmi) sul mondo del lavoro, così come di identità algoritmiche, calcolate in modo bio-politico, e assegnate, a loro insaputa, agli utenti dei social media.

Queste circostanze rivelano una preoccupazione sulle conseguenze politiche sociali e culturali del digitale, ma soprattutto sulla trasparenza dei processi computazionali.

Secondo molti sociologi americani la cultura americana sta scivolando progressivamente verso una  algorithmic culture caratterizzata da un forte determinismo tecnologico.

Per semplificare al massimo quello che preoccupa in questo momento le scienze sociali non è l’input – i Big data estratti dall’attività di miliardi di consumatori – né l’output, ma la non trasparenza che sta nel mezzo.

Vale a dire le righe di codice che guidano il processo con cui gli algoritmi on line lavorano i dati sui comportamenti degli utenti.

Algoritmi che, abbiamo rilevato più volte, rappresentano – insieme ai Dataset – un investimento  che viene custodito con grande cura e segretezza perché gran parte dei ricavi di colossi come Netflix e Amazon derivano proprio dai suggerimenti automatici che acquisiscono.

In sostanza, anche se molti degli algoritmi delle nostre tracce digitali sono disegnati da aziende private per scopi soprattutto commerciali, le conseguenze, sono pubbliche e spesso inquietanti.

Il caso di scuola è quello del recommender algorithm di Amazon che in piena stagione di terrorismo suggeriva le componenti per fare una bomba artigianale in quanto “spesso comprate insieme”.

In questo aneddoto – tragicamente vero – per riprendere un’espressione di Hanna Arendt, sta quella che si potrebbe chiamare la banalità dell’algoritmo.

Uno strumento che appare semplice e apparentemente neutrale, che si limita a eseguire gli ordini, ma che può produrre con la sua cecità cognitiva esiti indesiderati e devastanti.

************************

Profilazione Digitale.

Premessa.

Il concetto di identità personale si riferisce all’insieme delle caratteristiche di un individuo, ed è il campo sul quale agisce l’autodeterminazione.

Vale a dire, l’identità personale è auto-costruita e deriva dal processo di identificazione con uno o più modelli proposti dall’ambiente familiare e da quello socio-culturale e politico in cui l’individuo si trova a vivere.

Va anche sottolineato che l’identità per sua natura non può che essere molteplice e meticciata.

L’idea di un identità pura e statica è un’illusione razzista.

L’identità digitale, invece, è la rappresentazione di un individuo.

Un’identità identificabile da coloro che creano e usano i Dataset (cioè le collezioni di dati) in cui questa identità è memorizzata.

In sintesi, una persona digitale è la rappresentazione digitale di un individuo reale.

Una sorta di persona astratta che può essere connessa se non addirittura sovrapposta all’individuo reale e che è costituita da una quantità di dati sufficiente per essere usata in numerosi ambiti specifici.

In pratica si struttura come una delega di cui si può essere più o meno coscienti o, nella stragrande maggioranza dei casi, si realizza a nostra insaputa.
Roger Clarke, un esperto di cultura digitale australiano, ha distinto due tipi di identità digitale: quella progettata e quella imposta.

La progettata è costruita dallo stesso individuo, che la trasferisce ad altri per mezzo di dati.

Ad esempio: con la creazione di un Blog personale o di una pagina personale su un social network, o luoghi digitali simili.

Quella imposta è quella proiettata sulla persona. Un’identità illuminata per mezzo dei dati collezionati da agenzie esterne, quali sono le società commerciali o le agenzie governative.

Dati che hanno molteplici scopi, come valutare il suo grado di solvibilità ai fini della concessione di mutui, valutare il suo stato di salute a fini assicurativi o creditizi, definire le sue preferenze musicali o politiche, eccetera.
In una conferenza a Roma di qualche anno fa, Roger Clarke – riconosciuto come uno dei primi ricercatori a discutere di Persona Digitale – ha definito quattro categorie di persona digitale modellate sull’individuo reale come forme di un inconscio digitale:

– alla prima categoria troviamo degli individui che non sono a conoscenza degli archivi che conservano i loro dati sensibili.

– alla seconda, degli individui che sono a conoscenza degli archivi dati, ma non possono accedere ad essi.

– alla terza, degli individui che sono a conoscenza degli archivi e ne hanno accesso ma non conoscono i codici per decodificare le informazioni su tali archivi.

– nell’ultima categoria troviamo degli individui che hanno accesso ai loro dati e, nonostante sappiano che ad essi sono state sottratte molte delle informazioni che le profilano, tuttavia non ne conoscono il motivo.

In quest’ottica il profiling si può definire l’insieme di quelle tecniche che servono per disegnare la fisionomia digitale di un utente in base al suo comportamento.

Questo modello di profiling deriva, nelle sue linee generali, da quello in uso da tempo dalle forze dell’ordine e reso popolare dai film e dalle serie televisive.

Si tratta di una tecnica che ha l’obiettivo di portare alla luce dei pattern, cioè, degli schemi ricorrenti nel modo di agire di un indiziato.

L’obiettivo dei profiling di polizia è di prevedere il momento del reato e intervenire per evitarlo.

Per analogia, come il profiling criminale identifica il comportamento di un delinquente, allo stesso modo il profiling commerciale identifica il comportamento di un utilizzatore di servizi.

Rappresenta un grosso passo in avanti qualitativo rispetto al meccanismo della fidelizzazione (dall’inglese fidelity, fedeltà), perché si tratta di un monitoraggio che non riguarda solo i consumi correnti, ma è in grado di anticipare i desideri di consumo, così come il profiler criminale anticipa il momento e le modalità del reato.

Il campo di studio del profiling digitale, applicato ai consumi, non riguarda più con lo sviluppo dei programmi solo l’area degli acquisti, ma anche l’insieme delle interazioni e dei sentimenti (dei processi emotivi) che un individuo matura in un ambiente sociale predisposto per mezzo del web.

L’obiettivo di questo profiling è quello di disegnare un’area esplicativa dei legami sociali e, per conseguenza, della qualità dell’identità che si viene a formare entrando in relazione con gl’altri.

Quest’area di studi oltre a essere complessa è delicata da valutare.

Tra l’altro – per motivi politici e culturali – siamo abituati a pensare che il tema del controllo sia di esclusivo appannaggio delle istituzioni (più o meno legittime) che detengono il potere e non una prerogativa commerciale.

In generale, se un governo spia la popolazione o settori di essa si rende colpevole per l’opinione pubblica di un comportamento scandaloso e antidemocratico.

Di contro e fino ad oggi, invece, non c’è scandalo, né eccessiva riprovazione morale se questo controllo è esercitato dalle multinazionali del digitale.

Da un punto di vista fenomenologico il profiling risulta così una delle tecniche più sofisticate per reificare un individuo, renderlo simile a una cosa, in questo caso, una cosa misurabile, valutabile e manovrabile.

Va aggiunto che non pensiamo mai che siamo tutti sottoposti alla profilazione e, questo, indipendentemente dall’uso che facciamo dei servizi gratuiti in rete.

Come abbiamo gia ricordato i critici digitali dicono:

SE E’ GRATIS VUOL DIRE CHE LA MERCE SEI TU.

Ed è ovvio, perché l’obiettivo dei servizi che ci offrono è il profitto e non certo quello di metterci in contatto con altri o condividere con noi le esperienze della vita.

Diceva Hegel: L’ovvio ci è sconosciuto a causa della sua notorietà.

Il segreto di Pulcinella del digitale sta nel suo potere di estrarre valore economico dalla capacità e nella necessità umana di incontrarsi, comunicare, mostrarsi, generare senso e costruire legami sociali.

In altri termini la profilazione costituisce l’insieme delle tecniche che consentano di identificare, classificare, circuire gli utenti in base al loro comportamento.

Quello che viene raccolto e conservato non è, come nelle indagini di mercato classiche, una sorta di istantanea in un dato momento, ma è un flusso di dati in movimento che aumenta e si modifica in continuazione, realizzando una sorta di controllo continuo.

In sostanza, ogni utente che è in rete sviluppa e acquisisce, volente o nolente e a dispetto della privacy, un’impronta identitaria unica e in perenne metamorfosi.

Il tracciamento di questa impronta avviene in vari modi e per mezzo delle applicazioni che ci mettono in contatto con i servizi.

La più importante è il Web browser, cioè il navigatore, con cui surfiamo nel Web.

Il browser è un programma per navigare in Internet che inoltra la richiesta di un documento alla rete e ne consente la visualizzazione una volta arrivato.

Tra i browser più utilizzati vi sono Google Chrome, Internet Explorer, Mozilla Firefox.  

Il progetto Mozilla, tra l’altro, ha fornito il codice che è alla base di altri browser, fra i quali Netscape, Mozilla Suite, Galeon, Firefox ecc …

Oggi il modo più conosciuto per tracciare un’impronta è il sistema dei cookie, che tutti conoscono perché per legge deve essere segnalato sul sito dove si sta navigando.

Va però aggiunto che questi cookie sono quasi sempre soggetti a domini esterni rispetto a quello su cui il cookie si trova.

Che cos’è un cookie?

E’ una stringa di codice, diversa per ciascuno, che ci viene assegnata ogni volta che siamo su un sito e al cui interno sono contenute le impostazioni dell’utente relative al sito Web visitato.

Quando si ritorna su questo sito i cookie impostati in precedenza vengono di nuovo inviati al sito.

A cosa servono?

Se sul sito di una compagnia aerea effettuiamo una ricerca con la frase: Voli per Londra o Treni per Berlino, sul nostro browser viene istallato un cookie con questa richiesta, in gergo query.

Il termine query viene utilizzato per indicare l’interrogazione da parte di un utente di un database, strutturato.

L’analisi del risultato della query è un oggetto di studio dell’algebra relazionale.

Poi, in seguito a questa richiesta, un software istallato sul sito consultato farà uso di tale informazione (Voli per Londra, Treni per Berlino) per offrirvi della pubblicità legata alla ricerca, come hotel, noleggio auto, ristoranti centri di shopping, eccetera.

Questo perché il cookie istallato è un cookie di proliferazione.

In ogni modo, ci sono sistemi di tracciamento anche più sofisticati come gli LSO (Local Shared Object) più conosciuti con il nome di flash cookie, e gli e-tag, una sorte di Database nascosti dentro il browser e usati soprattutto dalle grandi compagnie come Google, Yahoo, Amazon e così via.

Il tag è una sequenza di caratteri con cui si marcano gli elementi di un file per successive elaborazioni. Da qui la sua definizione più popolare, di sigla apposta come firma dall’autore di un graffito.

Perché tutto questo ci riguarda da un punto di vista sociologico?

Perché il nostro browser generalmente è farcito di software di cui non sospettiamo l’esistenza e che hanno lo scopo di tracciarci.

La pratica di ripulire il proprio browser è importante, ma non risolve il problema.

In linea di massima ogni volta che una tecnologia Web permette a un server di salvare qualche dato all’interno del browser, questo può essere successivamente usato come sistema di tracciamento.

C’è anche una proliferazione di tipo attivo.

Infatti, quando utilizziamo Google Doc o Gmail condividiamo con il server tutte le informazioni sui contenuti, le condivisioni e le modalità d’uso che ne facciamo.

E’ un tracciamento di tipo attivo di cui abbiamo accettato le condizioni, vale a dire, accettando quei “Termini del Servizio” che nessuno legge mai e che, in sostanza, ci comunicano che, per esempio, Google, con ciò che mettiamo a sua disposizione, si riserva di farne quello che vuole al fine di migliorare il servizio (sic).

In breve, dobbiamo avere coscienza del fatto che i servizi che ci vengono promessi come gratuiti non lo sono affatto.

LA MONETA DI SCAMBIO E’ RAPPRESENTATA DALLA NOSTRA IDENTITA – CHE SI COSTRUISCE ATTRAVERSO IL WEB – E DAL CONTENUTO DELLE NOSTRE INTERAZIONI CON GL’ALTRI.

Per interazione sociale intendiamo qui una relazione di tipo cooperativo svolta da due o più attori detti soggetti agenti, che orientano le loro azioni in riferimento ed in reazione al comportamento di altri attori.

Queste relazioni sono caratterizzate da una certa durata, intensità e ripetitività nel tempo.

Il termine trae origine dalla scuola sociale americana ed è in qualche modo l’equivalente di relazione sociale.

Vedi: Modelli di interazione, Erving Goffman, Bologna, Il Mulino, 1971. (Contiene in trad. italiana: Interaction ritual. Strategic interaction.)

Come abbiamo già osservato, l’identità digitale è, di fatto, la base dei profitti del Web 2.0.

Il termine, apparso nel 2005, indica la seconda fase di sviluppo e diffusione di Internet, caratterizzata da un forte incremento dell’interazione tra sito e utente.

Vale a dire:

(uno) Maggiore partecipazione dei fruitori, che spesso diventano anche autori (blog, chat, forum, wiki).

(due) Più efficiente condivisione delle informazioni, che possono essere più facilmente recuperate e scambiate con strumenti peer to peer o con sistemi di diffusione di contenuti multimediali come Youtube.

Nelle reti telematiche il peer to peer è l’architettura in cui tutti i computer connessi svolgono la funzione sia di client che di server. In linea di principio il peer-to-peer può ostacolare i monopoli dell’informazione.

(tre) Sviluppo e affermazione dei social network.

Possiamo dire che l’architettura del Web 2.0 ha avuto come obiettivo principale quello di pensare l’identità degli utenti.

Infatti e come abbiamo visto, la raccolta delle informazioni sulle identità, attraverso le tecniche del profiling, costituisce la piattaforma su cui si fondano i profitti delle società di servizi gratuiti online.

Occorre, cioè, rendere l’utente un oggetto di studio misurabile.

Creare un modello semplificato di esso sul quale poter compiere elaborazioni come si fa con un insieme di dati.

L’aspetto che non va sottovalutato di questo problema è questo.

L’identità – come spiegano le scienze sociali – è un concetto complesso, costituisce il frutto delle relazioni in cui viviamo.

Come si fa a renderla misurabile?

Come abbiamo visto con la profilazione, vale a dire con quella tecnica che permette di identificare i singoli utenti e catalogarli in base al loro comportamento.

Dove sta l’inganno? Nel fatto che l’utente viene reificato (messo a nudo) attraverso il suo stesso comportamento.

Analizzando la nostra condotta sono registrate le nostre azioni il cui significato è calcolabile attraverso la costruzioni di parametri.

In altri termini, sul web commerciale noi siamo o diventiamo quello che facciamo.

Dal più piccolo movimento del mouse fino al tempo che passiamo senza far nulla sulla schermata di una pagina web.

Va anche rilevato che nei panottici digitali del web il credito e la visibilità sono direttamente proporzionali a quanto noi riversiamo sui framework, la piattaforma che funge da strato intermedio tra un sistema operativo e il software che lo utilizza.


Panopticon o panottico è un carcere ideale progettato nel 1791 dal filosofo e giurista Jeremy Bentham.

Il concetto della progettazione è di permettere a un unico sorvegliante di osservare (opticon) tutti (pan) i soggetti di una istituzione carceraria senza permettere a questi di capire se siano in quel momento controllati o no.

Il nome si riferisce anche a Argo Panoptes della mitologia Greca: un gigante con un centinaio di occhi considerato perciò un ottimo guardiano.

L’idea del panopticon ha avuto una grande risonanza successiva, come metafora di un potere invisibile, ispirando pensatori e filosofi come Michel Foucault, Noam Chomsky, Zygmunt Barman, Geeorge Orwell, autore del romanzo 1984.


Più il nostro account è raffinato, più ci personalizziamo, maggiore sarà il dettaglio della nostra immagine profilata sui data center delle aziende che conservano i nostri dati.

L’account è il complesso dei dati identificativi di un utente. Soni i dati che ci consentono l’accesso a un servizio di rete.

L’account di posta elettronica, in particolare, è il nome e la parola d’accesso per poter usufruire del servizio di posta.

Esistono da questo punto di vista due copie della nostra identità.

Una è quella che vediamo sullo schermo del nostro computer, che aggiorniamo e attraverso la quale ci rapportiamo con gli altri.

È, di fatto, l’identità con la quale ci presentiamo nell’infosfera.

L’altra è quella che sta sul server, è molto più estesa e complessa perché conserva in memoria ogni nostro dettaglio a partire dalle interazioni, dalle correzioni e dalle osservazioni passive che abbiamo svolto.


Da, il Manifesto – 2018.

Internet è al tempo stesso spazio economico, produttivo basato sui Big Data e una formidabile tecnologia del controllo sociale che segue linee di sviluppo diverse da quelle che una distratta teoria critica dipinge come un grande fratello in azione.
Nessuno schermo impartisce la linea di condotta, né c’è un nemico esterno o una quinta colonna interna da combattere e denunciare alle autorità costituite. Ci sono semmai policy, net-etiquette da fare proprie e rispettare.

Più che il regno autoritario descritto da George Orwell, Internet è il regno incontrastato del politicamente corretto, che ha guardiani efficienti e spesso totalmente arbitrari.

Su Facebook ci sono software che analizzano il contenuto di conversazioni e post alla luce di parole chiave, che rivelano potenziali messaggi razzisti, sessisti, terroristici.

Così può accadere che post violentissimi o pedo-pornografici possano circolare senza ostacoli e account di gruppi militanti anticapitalisti bloccati perché contrari alla policy dell’impresa di Mark Zuckeberg. E se scatta la protesta dei colpiti dalla censura di Facebook, la risposta standard, sicuramente gestita da un altro software è sempre la stessa: «ci scusiamo per l’inconveniente, ma l’errore è dovuto a un funzionamento non ottimale dell’algoritmo». Sta di fatto che il controllo è decisamente cheap e discreto. Allo stesso tempo, è compito degli utenti dei social network esercitare la verifica dei contenuti, segnalando ai webmaster le infrazioni al politicamente corretto incontrate nella navigazione.

Il controllo sociale è esercitato anche in un’altra maniera: la costituzione di comunità virtuali transnazionali tra simili. I simpatizzanti per l’estrema destra possono scambiare le loro critiche xenofobe e sessiste all’interno di gruppi chiusi. Lo stesso possono fare gli amanti di pratiche sessuali non convenzionali, o gli appassionati di gatti, con i loro gruppi di condivisione di foto e video: a volte, l’account non riguarda un umano, ma un cane, pappagallo o micio che sia.

Fenomeni ridicoli, certo, ma sempre più diffusi in questo ridisegno dei confini globali secondo affinità elettive che non contemplano la comunicazione tra diversi.

L’omogeneità delle comunità virtuali funziona come una potente tecnologia del sé, scriverebbe l’abusato Foucault. Ma se il filosofo francese pensava soprattutto a quel governo della vita esercitato dallo Stato, nella società globale della Rete le politiche della vita sono prerogativa non solo degli stati nazionali, ma anche di organismi sovranazionali che stabiliscono le regole di Internet e delle imprese. Amazon, Airb&b, Uber e tutte le piattaforme per fare affari on line, enfatizzano commenti e recensioni ai loro prodotti. Li pilotano, ma entro regole proprietarie certe e certificate. E sottoscritte dagli utenti. La relazione servo/padrone dovrebbe essere ripensata alla luce della sottomissione volontaria.

Dunque i confini non spariscono, ma vengono prodotti continuamente dagli stessi utenti. Più che un panopticon, la Rete è l’emblema di un synopticon, strategia di controllo sociale basata su relazioni vis-à-vis. Alle imprese non rimane altro che elaborare i dati, impacchettarli, venderli a chi li userà per scopi pubblicitari.

L’umano perde la sua corporeità, per essere ridotto a una successione di bit. Ma se questa è la tendenza ne esiste un’altra meno chiara, spesso inintellegibile.

Che Facebook, Google, Amazon, Apple e le altre major del world wide web si approprino dei dati personali considerandoli una loro proprietà privata è stato ampiamente studiato.

Sono le dinamiche del capitalismo estrattivo, cioè di quel regime di accumulazione capitalistica basato sulla espropriazione dei commons non tangibili, immateriali direbbero alcuni teorici della network culture.

Meno evidente è la formazione di un complesso militare-digitale che vede in azione militari, va da sé, ma anche imprese private. Silicon Valley, oltre che laboratorio di innovazione tecnologica, è diventata nel tempo l’atelier che produce software per il controllo sociale. Quando si dice Silicon Valley non si intende solo la valle californiana. I maggiori committenti e produttori di software per il riconoscimento facciale, analisi dei video e dei contenuti sono sì statunitensi, ma anche inglesi, francesi. E israeliani.
Il complesso militare digitale non si ferma alla National security agency, ma vede piccole start up inglesi e israeliane che fanno affari con militari e altre organizzazioni economiche, come quelle che gestiscono gli aeroporti o le polizie metropolitane: la videosorveglianza ha bisogno di strumenti i di elaborazione efficienti.

È un complesso militare-digitale litigioso. I big della Rete sono gelosi dei loro Big data e difficilmente li cedono o li fanno consultare dalle agenzie della sicurezza nazionale. I ripetuti rifiuti di Facebook, Google, Apple di collaborare con la Nsa o con la Fbi nella condivisione dei dati sono presentati come l’adesione al sacro rispetto della privacy, in realtà salvaguardano un business.
Questo complesso militare-digitale mina le fondamenta della democrazia: è basato sul segreto e sulla sottrazione al controllo del popolo.

Con una differenza: nessuno limita la libertà di comunicare. Semmai ne definisce il lessico appropriato: sorveglianza e controllo devono essere a maglie larghe per consentire linee di fuga e di circolazione ampia. Altrimenti i Big data si inaridiscono. E quando il rischio di esaurimento del data mining diventa alto, si ripristina l’orrore moderno: frontiere e sovranità nazionale esercitata dallo Stato.

**********************

Una nota sul data mining.

Definiamolo prima di analizzarlo.

Il data mining riguarda l’estrazione di informazioni – eseguita in modo automatico o semi-automatico – da grandi quantità di dati conservati nelle banche dati per la ricerca di pattern e/o relazioni non note a priori.

Implica l’uso di tecniche di analisi che si avvalgono di modelli matematici e statistici per l’interpretazione e la previsione dell’andamento di serie temporali, tecniche che consentono di implementare le capacità analitiche di tipo predittivo.

Il data mining importante perchè da tempo è usato per orientare le opinioni e i processi decisionali.

Va osservato che questo lavoro sui dati non si limita alla constatazione e alla osservazione di fatti, perché il suo fine è quello di mettere in atto azioni capaci di produrre valore.

Ci sono quattro misure – dette anche le quattro V – che consentono di catalogare i dati raccolti e di poterne individuare una grandezza.

Queste misure sono:

Il Volume, è una misura facile da intuire in quanto riguarda l’accumulo dei dati.

Per valutarla osserviamo che ogni minuto vengono caricate solo sulla piattaforma di sharing Youtube più di trecento ore di video.

Facebook genera quasi cinque petabyte di dati al giorno.

Twitter gestisce oltre 600 milioni di tweet ogni 24 ore.

Il numero di mail scambiate ogni giorno nel mondo e poco più di duecento miliardi di unità.

(Sono dati del 2016 e sono per la nostra esperienza impensabili)

La Velocità. Concerne la necessità di ridurre al minimo i tempi di analisi dei dati cercando di effettuarli in real time o quasi, distinguendo quelli che potrebbero essere o diventare in breve tempo obsoleti.

La Varietà. È una delle caratteristiche più importanti in quanto incide sul valore di rete generato.

I dati – a una classificazione di massima – possono essere Dati strutturati (costituiscono il venti per cento di tutti i dati). Dati non strutturati sono i dati conservati senza alcuno schema e composti da un elevato numero di meta-dati, ossia di informazioni che specificano il contenuto e il contesto di una pagina web. Dati semistrutturati. Come i dati XML.

In informatica, l’Extensible Markup Language (XML) è un linguaggio di markup che definisce un insieme di regole per la codifica dei documenti in un formato che sia leggibile dall’uomo e leggibile dalla macchina.

La quarta misura è la Veridicità. Indica il grado di accuratezza e di attendibilità dei dati. È la condizione chiave per poter estrarre valore dai dati.

Queste quattro misure che abbiamo sommariamente descritte sono legate da processi di interdipendenza.

Partendo da esse possiamo definire i Big data (ed è quello che interessa la sociologia) come un patrimonio informativo caratterizzato da velocità, volume e variabilità elevati, che richiede forme innovative di analisi e di gestione finalizzate a ottenere una più accurata comprensione dei processi decisionali.

Questo fenomeno dei Big data ha smesso da tempo di essere un argomento specialistico per diventare un tema ricorrente sui social network.

Su LinkedIn, per esempio, ci sono più di duemila gruppi dedicati all’argomento, può sembrare strano, ma non dimentichiamo che i data sono il petrolio del ventunesimo secolo o, se preferite, uno dei temi centrali della contemporaneità.

Alla base di questa situazione ci sono le tecnologie digitali, essenziali a innumerevoli attività professionali, della comunicazione, dell’economia, della finanza, dell’industria, della cultura, della difesa.

Così come ci siamo noi, sempre più dipendenti da una serie di dispositivi digitali necessari per svolgere un numero sempre più elevato di compiti quotidiani e dotati di un numero sempre crescente di sensori e strumenti di registrazione.

Tra l’altro è questo il motivo per cui la natura dei dispositivi digitali è di essere delle macchine che in prima istanza producono dati.

Il più famoso di essi lo chiamiamo ancora “telefonino”, ma lo smartphone è a tutti gli effetti un computer portatile di dimensioni ridotte, ed è proprio la sua vera natura che lo fa costare così poco.

Lo facciamo senza pensarci, ma la mattina quando lo accendiamo o, meglio, lo avviamo – sempre che non lo lasciamo acceso in continuazione – il nostro smartphone per prima cosa invia a più soggetti, con i quali ci collega, il segnale che il device è attivo.

Quali sono questi soggetti?

Il produttore del telefono, il produttore del sistema operativo, quelli delle app che abbiamo installato e ad altri a essi collegati.

Se poi sul nostro smartphone abbiamo attivato la geo-localizzazione, verranno registrati anche i nostri tragitti quotidiani che finiranno a far parte di quel insieme di dati che trasmettiamo a tutti i soggetti a cui siamo legati per suo tramite.

In altri termini, se una mezzora dopo essere usciti di casa il nostro smartphone raggiunge un indirizzo che corrisponde a quello di un’azienda o di una scuola, come nel nostro caso, e da qui non si muove per un certo periodo di tempo, sarà piuttosto facile per chiunque abbia i mezzi per raccogliere questi dati, di processarli e trarne delle conclusioni.

In passato questa acquisizione di dati creava spesso ingorghi, oggi avviene in modo automatico, senza interferenze, perché ogni dispositivo che noi utilizziamo crea una traccia digitale fatta di dati che sono aggregati, analizzati e letti.

Questa situazione è oggi accentuata dall’Internet delle cose (Internet of Things) – che abbiamo già definito come l’implementazione di connettività all’interno di elettrodomestici ed oggetti di uso comune – che ha fatto crescere le dimensioni della nostra traccia digitale trasformandola in modo radicale, con una metafora, dando vita all’ombra delle nostre abitudini di consumo.

Diciamo che con la mole di dati raccolti si può fare un vero e proprio profilo virtuale della nostra esistenza, esistenza di cui senza una piena consapevolezza cediamo la proprietà e il controllo ai produttori di device e ai fornitori di servizi digitali.

Dunque, al centro del problema ci sono i dati, la cui importanza – come fenomeno della modernità – fu messa in luce qualche anno fa dalle discussioni sulla postfattualità.

Postfattuale(in inglese posttruth) è un termine inventato da David Roberts, un blogger ambientalista americano.

Serve a spiegare la crescente inclinazione di parte della società moderna a credere a notizie false o fortemente alterate, cioè, alle “bufale”, come si dice in Italia.

Semplificando, quello che stiamo vivendo è un passaggio da una modalità o schema di giudizio basato sull’osservazione diretta e la testimonianza dei fatti a una modalità di giudizio basata sulla raccolta, l’aggregazione e l’analisi dei dati.

La domanda che, per conseguenza, dobbiamo porci è questa:

In che modo il passaggio dai fatti ai dati come modalità di giudizio cambia il modo in cui vediamo le cose?

In primo luogo va messo in luce il ruolo che i dati rivestono nel determinare il giudizio che diamo sulla realtà che ci circonda è la loro pretesa di oggettività rispetto ai fenomeni che descrivono.

Per verificarlo basta fare un giro sui social network per costatare il modo in cui gli utenti gestiscono dati, statistiche, inchieste di data journalism e di altre forme di presentazione dei dati come se fossero un vangelo, con il solo obiettivo di far accettare all’interlocutore l’evidenza della propria posizione.

Molte inchieste hanno dimostrato che nel sentire comune, soprattutto dei nativi digitali, ciò che viene presentato e supportato attraverso i dati assume la forza di un’evidenza sostanzialmente incontestabile.

O, per dirla in altro modo, sembra che il dato, in sé, abbia assunto uno statuto simile a quello di un elemento naturale.

Vale a dire abbia acquisito uno statuto comparabile a quello dei fatti osservabili che per secoli hanno costituito l’unica base possibile di giudizio.

Questa credenza del dato come un paradigma di oggettività è il prodotto di due fattori.

– Da una parte è il risultato dell’abbassamento delle soglie d’ingresso alla produzione e distribuzione delle informazioni, che ha reso possibile un mondo caratterizzato dalla parcellizzazione delle opinioni e dei punti di vista competenti, generando quello che i sociologi chiamano un panorama liquido e mutevole.

– Dall’altra è l’effetto ideologico che presiede alla costruzione di un discorso e di un punto di vista che ha come obiettivo di nascondere e rimuovere la reale natura dei dati.

In buona sostanza, quelli che noi ci siamo abituati a considerare come fatti che si danno in modo spontaneo all’analisi e che chiamiamo comunemente dati, sono in realtà una selezione da un catalogo infinito di possibilità che si danno ai nostri sensi.

Per cui, considerato che l’operazione di selezionare e stabilire delle differenze tra le cose che ci circondano è l’atto stesso di fondazione di una cultura allora, anche i dati che raccogliamo e analizziamo, ne portano impresso il segno.

Considerati in questo modo, cioè come un elemento culturale, i dati perdono il carattere dell’oggettività per diventare – come le opinioni – il prodotto delle condizioni e del contesto in cui vengono sviluppati.

In pratica, anche i dati portano impresso i bias culturali di chi progetta i sistemi per raccoglierli e le cornici concettuali per analizzarli, mettendo così in luce alcuni aspetti a discapito di altri, a seconda dei punti di vista da cui vengono creati.

*****************************

Per spiegare che cos’è un algoritmo e illustrare il meccanismo del SE/ALLORA siamo ricorsi al gioco della mora cinese.

Oggi non siamo più in grado di battere le ICT neppure a questo gioco poiché un robot è così veloce da riconoscere in un millesimo di secondo la forma assunta dalla nostra mano e scegliere la mossa vincente.

Per comprendere quello che molti chiamano il nostro destino informazionale dobbiamo tenere presente la distinzione tra tecnologie che migliorano e tecnologie che aumentano.

Impugnature, interruttori, manopole – che caratterizzano le tecnologie che migliorano (come ieri erano martelli, leve, pinze…) – sono interfacce volte a consentire l’applicazione dello strumento al corpo dell’utente in modo ergonomico.

Le tecnologie che migliorano richiamano – se si vuole – l’idea di cyborg.

Invece i dati e i pannelli di controllo delle tecnologie che aumentano sono interfacce tra ambienti diversi.

Poeticamente possiamo dire che le vecchie tecnologie creano ambienti funzionali al loro scopo, ambienti raccolti, com’è l’interno acquoso e insaponato di una lavatrice o l’interno bianco e freddo di un frigorifero.

Le ICT, invece, sono forze che modificano l’essenza del nostro mondo, creano o ri-costruiscono realtà che l’utente è in grado di abitare.

DICIAMO CHE NON SONO CHIUSE SU SE STESSE, MA SONO AVVOLGENTI, COSTRUISCONO INTORNO A NOI.

Facciamo un passo in avanti.

La nuova storia, la storia nell’era digitale, dipende in modo considerevole dai Bigdata, ma ci sono molti problemi da considerare.

Uno riguarda la qualità della memoria digitale perché le tecnologie dell’informazione e della comunicazione digitale hanno una memoria che dimentica.

Cosa vuol dire?

Che queste tecnologie – costi a parte – divengono rapidamente obsolete e rendono tutto volatile.

Molti documenti digitali sono diventati inutilizzabili perché la loro tecnologia non è più disponibile.

Basti pensare al caso dei floppy.

In Internet, poi, ci sono milioni di pagine abbandonate, vale a dire di pagine create e poi mai più aggiornate o modificate.

Nel 1998 la vita media di un documento, prima dell’abbandono, era di 75 giorni, nel 2008 si è ridotto a 45 giorni, oggi – 2018 – si parla di 37 giorni.

Molti studiosi hanno osservato che la nostra memoria digitale appare volatile come la nostra memoria orale anche se l’impressione che ci trasmette la memoria digitale è diversa.

Realisticamente possiamo dire che, in questa alba del digitale, le ICT non conservano il passato per metterlo a disposizione del futuro dal momento che le strategie digitali tendono a farci vivere in un eterno presente.

Conservare la memoria, del resto, non è facile, occorre saper cogliere le differenze significative e saper stabilire le sedimentazioni in una serie ordinata di cambiamenti.

Qual è la sostanza del problema?

Il fatto che è lo stesso sistema dinamico – che ci consente di riscrivere migliaia di volte lo stesso documento – e anche quello che rende altamente improbabile la conservazione delle versioni precedenti per un esame futuro.

“Salva questo documento” significa sostituisci le versioni precedenti.

In questo modo ogni documento digitale di qualsiasi genere è condannato a questo imprevisto destino tecnico-storico.

Con quali rischi?

Che le differenze finiscano per essere cancellate e le alternative amalgamate.

Così, il passato costantemente riscritto e la storia ridotta a un perenne qui-ora.

Come dicono gli scettici, quando la maggior parte della nostra conoscenza è nelle mani di questa memoria che dimentica, rischiamo di trovarci, senza volerlo, imprigionati in un eterno presente.

Questo è uno dei motivi per cui si sono formate molte organizzazioni volte a conservare la nostra eredità culturale digitale come la “National Digital Stewardship Alliance” o l’”International Internet Preservation Consortium”.

Paradossalmente si può dire che il lavoro di custode delle informazioni digitali è una delle nuove professioni di questo secolo.

Un altro aspetto importante del problema è che la quasi totalità dei dati è stata creata in pochi anni e tutti questi dati stanno invecchiando.

Invecchiano insieme ai nostri attuali supporti digitali, hard disk e memorie di vario genere.

MTBF – Mean Time Before Failure ovvero “il tempo prima del fallimento” è un paradigma che valuta l’aspettativa di vita stimata di un sistema.

Più elevato è il MTBF più a lungo dovrebbe durare un sistema.

Un MTBF di cinquantamila ore – vale a dire di cinque anni e mezzo – è la vita media di un hard disk.

La questione è che, per come si è sviluppato il sistema digitale, le aspettative di vita dei supporti dei nostri dati sono, al momento, sincronizzate.

Praticamente, i Bigdata invecchieranno e diventeranno dati morti pressappoco nello stesso momento.

Va da sé, molti saranno salvati e trasferiti su altri supporti, ma chi stabilirà quelli che dovranno vivere e quelli che dovranno sparire?

Per capire meglio questo problema c’è un’analogia. È quella che ha riguardato il passaggio dai film in bianco e nero e muti, ai film a colori.

Questo passaggio fu fatto senza un criterio o delle direttive e oggi noi sappiamo che più della metà delle pellicole girate tra i primi anni del Novecento e gli anni Cinquanta sono andate distrutte.

Nel 2007, per la prima volta, il mondo ha prodotto più dati di quanti ne possa immagazzinare e ciò a dispetto del fatto che la densità di immagazzinamento degli hard disk stia crescendo rapidamente.

Per fare un esempio si prevede che all’inizio del 2021 un hard disk di 14 terabyte misurerà circa tre centimetri di diametro e non costerà più di una cinquantina di dollari.

È dunque importante capire questo.

Nella cultura analogica il problema è cosa salvare.

Nella cultura digitale il problema è cosa cancellare.

In quali forme e con quali conseguenze?

Nel digitale il nuovo spinge via il vecchio.

Il primo che entra è il primo che esce.

Le pagine Web aggiornate cancellano quelle vecchie, le nuove foto rendono obsolete le vecchie, i nuovi messaggi si sovrappongono ai precedenti, le e-mail recenti sono conservate a spese di quelle dell’anno prima.

Vediamo un altro argomento connesso. Il Quantified Self.

È un movimento nato in rete per incorporare la tecnologia nell’acquisizione di dati relativi a ogni aspetto della vita corrente.

Il motto di questo movimento è: self knowledge through numbers.

Nata nel 2007 su iniziativa della rivista Wired  la pratica del life-logging (la pratica di registrare le immagini di una vita in senso biologico) grazie alla diffusione di dispositivi bio-metrici connessi alla rete globale ha consentito un balzo in avanti del monitoraggio delle attività biologico.

Ogni aspetto vitale è definito in termini di input, stati o condizioni, performance, quantità di cibo consumato, qualità dell’aria respirata, umore, eccitazione, eccetera.

I sensori si possono indossare e sono in grado di monitorare l’attività fisico-chimica dell’organismo, sequenziare il DNA e le cellule microbiche che abitano il corpo.

Il desiderio e la ricerca della verità del sé – che ha la sua culla nell’insegnamento delfico GNOTHI SEAUTON (conosci te stesso) si sta trasformando in uno strumento di auto-addestramento.

Misurare le manifestazioni fisiologiche del proprio corpo con gli strumenti di monitoraggio digitali, tenere una traccia costante del proprio corpo organico di fatto serve solo al confronto profilato.


Una nota tratta da La Repubblica, aprile 2013.

In principio fu il blog. Ma adesso, dopo che i social network come Facebook e Twitter hanno elevato il “weblog”, ossia il “diario online”(questo il significato del termine) a fenomeno universale, è arrivato il momento del lifelog: il diario della propria vita per immagini da postare tutto intero su internet.

Una nuova micro-video-camera digitale che si può attaccare ai vestiti e in grado di effettuare automaticamente due foto al minuto.

Ciò permette di mettere in rete tutto quello che facciamo nelle 24 ore del giorno.

Prodotta dalla Memoto, una startup americana, crea se uno la “indossa” per più o meno dodici ore al giorno (ovvero se la si tiene sempre accesa, tranne quando si dorme) quattro gigabyte di nuovo materiale ogni 24 ore.

La mini macchina fotografica scatta 10 mila immagini alla settimana, 40 mila al mese, mezzo milione all’anno.

Volendo, si può fare in questo modo la “cronaca fotografica” di una vita intera, due foto al minuto dalla culla alla tomba, pari all’incirca a 40 milioni di fotografie: mentre mangiamo, studiamo, lavoriamo, chiacchieriamo, giochiamo, facciamo l’amore.

Sarà il “lifelogging”, si è chiesta la Bbc illustrando il nuovo fenomeno, la prossima mania del web?

Per gli ottimisti, come Martin Kallstrom, fondatore e presidente della Memoto, significa che non avremo più bisogno della memoria cerebrale per ricordare la nostra esistenza: basterà scaricare su internet e salvare l’archivio digitale di parole, suoni e immagini che scorre come un doppione, come una “second life”, accanto alla nostra vita reale, di cui è lo specchio fedele.

Per i pessimisti, tuttavia, questa “information overload”, questo carico eccessivo di informazioni digitali, può diventare una minaccia sociale, perché ogni parvenza di privacy va in frantumi nel momento in cui viene condiviso con altri utenti sul Web.

In altri termini, può funzionare una società in cui, perlomeno teoricamente, tutti sanno tutto di tutti (o almeno possono saperlo) con un semplice clic del mouse o semplicemente premendo i polpastrelli su uno schermo?

Una cosa è certa: le nuove frontiere della comunicazione digitale si spingono sempre più avanti, sempre più in fretta.

La Memoto ha prodotto il congegno per ora più piccolo, ma non è certo l’unica azienda dell’it, cioè dell’information technology, a operare nel campo del life-logging.

La Microsfot ha creato i una minivideocamera chiamata SenseCam che scatta automaticamente una foto ogni 30 secondi in maniera analoga.

Google Glass e Twitter offrono strumenti per filmare e postare in modo simile ogni attimo della nostra giornata.

“L’osservazione di massa sta diventando una tendenza globale”, osserva il professore Henry Jenkins, docente di studi sui nuovi media alla University of Southern California. “Viviamo in una cultura più esibizionistica ma al tempo stesso ci sono persone a disagio davanti a tutta questa mole di informazioni”.

Il timore è quello che il Grande Fratello immaginato da George Orwell nel suo romanzo futuristico “1984” non sia più un occhio che vigilia dal di sopra sull’esistenza umana, ma un minuscolo gadget che ciascuno di noi porterà volontariamente all’occhiello.

Tuttavia vanno considerati anche gli aspetti positivi: le immagini digitali riprese con i telefonini da centinaia o migliaia di spettatori hanno aiutato la polizia a individuare rapidamente gli autori dell’attentato all’arrivo della maratona di Boston.

E’ un fenomeno che gli esperti chiamano “sousveillance”,il contrario di surveillance (sorveglianza).

Invece di un governo che ci guarda dall’alto, ci sono gli individui che guardano dal basso, magari per mettere su internet il lifeblog della propria vita.


Vediamo adesso alcuni equivoci.

Quando si parla di intelligenza artificiale occorre intenderci.

È un’espressione che potrebbe far pensare a macchine dotate di conoscenza, in grado di ragionare e, soprattutto, consapevoli di ciò che stanno facendo.

Le cose, in realtà, sono molto diverse.

Il fatto che un software impari a riconoscere se, in una immagine, ci sono dei gatti non significa che sappia che cos’è un gatto.

O meglio, il software che ci batte giocando a scacchi non ha la più pallida idea di che cos’è il gioco degli scacchi, come per esempio avvenne quando Deep Blue batté Gary Kasparov.

Diciamo, semplicemente, che i sofware non sono in grado di pensare.

Sono solo in grado di processare una quantità enorme di dati e di metterli in relazione tra di loro, identificando collegamenti e differenze o calcolarli statisticamente.

Nel nostro esempio, di identificare la mossa degli scacchi che ha la maggiore probabilità di avere successo.

I mezzi utilizzati per arrivare a questo risultato sono sostanzialmente due.

Il machine learning – ovvero, l’apprendimento automatico – e la sua più recente evoluzione, il deep learning – l’apprendimento approfondito.

In particolare il deep learning lavora su un vastissimo numero di strati interni alle cosiddette reti neuronali che simulano il funzionamento del cervello raggiungendo così una maggiore capacità di astrazione.

En passant, ricordiamo che gli studi sulla cosiddetta intelligenza artificiale risalgono alla metà del secolo scorso.

Oggi possiamo definire il machine learning come una branca dell’intelligenza artificiale che fornisce ai computer l’abilità di apprendere senza essere stati esplicitamente programmati.

Apprendere attraverso tentativi ed errori attraverso una sorta di calcolo statistico estremamente evoluto.

Alla fine del secolo scorso, invece, la ricerca sulla cosiddetta intelligenza artificiale si concentrava sullo sviluppo delle capacità simboliche.

Vale a dire si cercava di far apprendere alle macchine tutte le regole necessarie per portare a termine un compito.

Per tradurre dall’italiano all’inglese – per fare un esempio – si cercava di fornire al computer tutte le regole grammaticali e i vocaboli delle due lingue per poi chiedergli di convertire una frase da una lingua all’altra.

Con il risultato di tradurre merluzzi con piccoli merli.

Tra i pionieri di queste ricerche va ricordato, Silvio Ceccato, che per anni lavorò nel laboratorio di cibernetica dell’Università Statale di Milano.

Diciamo che il modello simbolico ha grossi limiti e funziona solo in quei campi che hanno regole chiare e rigide, come la matematica e gli scacchi.

L’atteggiamento generale iniziò a cambiare con gli ultimi anni del secolo scorso quando diventò evidente che il machine learnig consentiva di risolvere problemi che l’intelligenza artificiale simbolica non sarebbe mai stata in grado di risolvere.

Tutto ciò, anche grazie a una mole senza precedenti di dati a disposizione e all’accresciuta potenza di calcolo dei computer.

Per farvi capire il volume dei dati riflettete su questo: nel 2013, il 90 per cento dei dati prodotti nella storia dell’umanità era stato creato nei due anni precedenti.

Alla base del machine learning c’è l’utilizzo di algoritmi che analizzano enormi quantità di dati, imparano da essi e poi traggono delle conclusioni o fanno delle previsioni.

Per questo si dice che questi programmi hanno un abilità di apprendere senza essere stati esplicitamente programmati a differenza dei software tradizionali che si basano su un codice scritto che li istruisce passo dopo passo.

In breve, nel caso del machine learning è la macchina scopre da sola come portare a termine l’obiettivo che le è stato dato.

È una forma di intelligenza?

No.

Per imparare a riconoscere un numero, diciamo il numero “quattro”, un’intelligenza artificiale deve essere sottoposta a migliaia e migliaia di esempi.

A un bambino di cinque anni basta vederne cinque o sei.

In ogni modo il metodo probabilistico è alla base di molte operazioni che ci semplificano la vita.

Il machine learning viene impiegato dai filtri antispam per eliminare la posta indesiderata, da Facebook per indovinare quali sono i nostri amici nella foto, permette ad Amazon o a Netflix di suggerirci quali libri leggere o quali film vedere o a Spotify di classificare le canzoni in base al genere musicale.

Ma il machine learning è in marcia.

Guiderà le nostre automobili, ma già adesso ci può assistere come se fosse un avvocato, soprattutto nelle pratiche internazionali. Un avvocato capace di scartabellare nei database legali di tutto il mondo.

E non dimentichiamo Watson – l’intelligenza artificiale elaborata dalla IBM – che può diagnosticare i tumori con precisione maggiore di molti medici ospedalieri. .

Riassumendo.

Per la cosiddetta intelligenza artificiale i due fattori fondamentali sono il potere di calcolo e i dati.

Quest’ultimi devono essere di buona qualità essendo la materia grezza alla base delle conclusioni o predizioni del network.

Come dicono gli informatici, se inserisci spazzatura, esce spazzatura.

Qual è allora il problema?

È che spesso i dati forniti alle IA (intelligenze artificiali) includono molti pregiudizi umani che si riflettono inevitabilmente sui risultati ottenuti con le macchine.

L’esempio di scuola di questa constatazione è quella del bot progettato da Microsoft e chiamato Tay. Ne abbiamo già parlato.

Appena ha cominciato a immagazzinare dati si sono scatenati i troll che hanno iniziato a comunicare con Tay dandogli in pasto una miriade di opinioni razziste e omofobe che lo hanno fatto diventare nel giro di 24 ore il primo esempio di intelligenza artificiale nazista.

Un aneddoto racconta che un istante prima di essere chiuso Tay twittò: Hitler was right I hate the Jews.

Lasciando stare i troll un altro problema nella distorsione delle I.A. è l’uso di training set facilmente accessibili e a basso rischio legale dal punto di vista del copyright.

Due esempi spiegano bene il problema.

Una fonte per istruire i network neuronali sono le e-mail.

In un caso famoso furono usate le mail di una compagnia petrolifera texana.

Sembravano perfette fino a quando questa compagnia non fu denunciata per truffa.

Va da se, la I.A. aveva assorbito l’arte di truffare!

Spesso per evitare i copyright si usano dati provenienti da opere che non sono più soggette ad esso.

Per esempio, in lingua inglese, Shakespeare, Joyce, Scott Fitzgerald.

Ma anche in questo caso c’è un problema non da poco.

Sono autori pubblicati prima della seconda guerra mondiale e un Dataset che faccia affidamento sui loro scritti non farebbe altro che riflettere i pregiudizi del loro tempo e lo stesso farà il sistema di intelligenza artificiale nutrito con questo Dataset.

Si tratta di un problema enorme e delicato, soprattutto per quanto riguarda l’ordine pubblico, perché, come si è già verificato, certe etnie – solo a causa di statistiche mal impostate – sono state considerate come naturalmente più predisposte a diventare terroristiche o a commettere crimini.

Il problema diventa ancora più delicato con i software predittivi in mano alle forze dell’ordine perché spesso essi finiscono per causare – come dice la sociologia – una profezia che si auto-avvera o che si auto-adempie.

In sociologia una profezia che si auto-adempie o che si auto realizza, è una previsione che si realizza per il solo fatto di essere stata espressa.

Predizione ed evento, infatti, sono in un rapporto circolare, secondo il quale la predizione genera l’evento e l’evento verifica la predizione.

Ad esempio nel mercato azionario ad una convinzione diffusa dell’imminente crollo di un’azienda, gli investitori possono perdere fiducia e mettere in atto una serie di reazioni che possono causare proprio il crollo della stessa.

In una campagna elettorale un candidato che dichiari di non credere nella sua vittoria può indurre apatia o rassegnazione nei suoi potenziali elettori, che si concretizzano in una diminuzione della sua base elettorale.

In psicologia, una profezia che si auto-adempie si ha quando un individuo, convinto o timoroso del verificarsi di eventi futuri, altera il suo comportamento in un modo tale da finire per causare tali eventi.

In conclusione il pericolo sta nel fatto che gli algoritmi – protetti dalla loro aurea di scientificità – potrebbero diventare una giustificazione per profilazioni in sé inattendibili e generare equivoci.

In sostanza, ogni sistema di profilazione o predittivo è efficace solo se i dati inseriti sono corretti e privi di bias.

Agosto 2019

Appunti di Sociologia della Comunicazione – A.A.2019-20 – Parte II

SOCIOLOGIA DELLA COMUNICAZIONE

(PARTE SECONDA)

Scarica la versione in PDF

La velocità e i numerosi cambiamenti tecnologici, intervenuti a partire dalla seconda metà del secolo scorso, ridisegnarono un mondo costituito da realtà separate le une dalle altre, e dai caratteri specifici e definiti.

Realtà delimitate da confini sia reali che simbolici, confini ben delineati e difficili da ridurre a un unico paradigma.

Nota bene: Un paradigma rappresenta un modello di riferimento o, meglio, una matrice disciplinare che delimita il campo, la logica e la prassi della ricerca nell’ambito di un argomento scientifico, in questo caso il concetto di società.   

In altri termini, per molto tempo la coincidenza di territorio, cultura, lingua e popolo – che si intravede dietro questo modello, sostanzialmente ideologico e politico – ha rappresentato una delle più importanti  motivazioni per la nascita e la costruzione degli Stati nazionali.

Un modello che ritroviamo sia alla base di molte opere letterarie, artistiche e musicali, che di molte analisi politiche, economiche e sociologiche, che hanno alimentato rimpianti, nostalgie e rivendicazioni di ogni genere.

Con la fine del ventesimo secolo è in modo piuttosto accelerato c’è poi stato un importante sovvertimento del rapporto tra gli spazi nazionali, i territori e gli spazi sociali.

Questo sovvertimento – in molta parte dell’opinione pubblica – ha generato la convinzione che i linguaggi, le pratiche culturali, le relazioni sociali, i patrimoni simbolici, i manufatti sono radicati non già nello Stato nazionale ma in luoghi e in comunità geograficamente ben definiti.

Va aggiunto che fuori dall’Europa storica i violenti conflitti etnici che sono scoppiati hanno rivelato come la forma di Stato nazionale è un coacervo di gruppi etnici diversi, quasi sempre in polemica o in conflitto tra di loro.

Gruppi spesso assimilabili a “comunità immaginarie” più che a un tessuto di comunanze sviluppate e omogenee.

In questa prima parte di secolo è facile costatare come molti Stati sono attraversati da tensioni separatiste, altri sono messi in discussione da realtà locali in concorrenza tra di loro altri ancora sono minacciati, soprattutto sul piano economico, da autorità sovra-nazionali.

Ha scritto il filosofo e sociologo tedesco Jürgen Habermas: Uno dei principi più importanti elaborati negli ultimi due secoli dello scorso millennio – vae a dire la nozione di sovranità della coppia Stato/Nazione – è stata messa in discussione e si è differenziata frantumandosi tra autorità locali, regionali, nazionali, globali.

Le nuove e massicce forme di migrazione, i nuovi sistemi di comunicazione digitale, le strategie finanziarie globali, i nuovi assetti politici, sono paradigmi che hanno attraversato i vecchi confini e generato pratiche socioculturali inedite che hanno dato vita a forme di multipolarità territoriale.

Nella storia del mondo occidentale questi paradigmi sono sempre esistiti disposti in aree più o meno vaste e contraddistinte dagli stili di vita, dalle relazioni sociali, dagli orientamenti ideologici, dai sistemi simbolici, dai manufatti e dagli artefatti, ma avevano una caratteristica: quella di poter essere iscritti in un unico schema di comprensione e di elaborazione più o meno condiviso o accettato.

E’ sufficiente riflettere sul ruolo attivo e organizzativo delle religioni, a partire dalla chiesa cattolica, così come il ruolo giocato dai grandi imperi o, nello specifico dalle tradizioni.

Oggi tutto è diverso.

Le idee si sono globalizzate, come gli stili di vita e la propensione all’esotico.

Le ragioni sono molte a partire dai sistemi di comunicazione di massa in tempo reale, dalle nuove tecnologie di trasporto, dai movimenti reali – spontanei o forzati – di grandi masse, dal fascino dell’infosfera che spinge centinaia di migliaia di individui a immaginare le nuove Bengodi, i nuovi paesi di Cuccagna, le nuove Calicut dello spettacolo.

Che li spinge a sognare nuove patrie e nuove opportunità di vita e di lavoro.

Individui che fuggono guerre, carestie, persecuzioni religiose, repressioni politiche, disastri climatici e ambientali.

Individui su cui fa presa  – in forma globale e multilocale – una circolazione vertiginosa di immagini, idee, oggetti, usi, consumi e costumi che inverano quella che nel 1968 fu chiamata la dittatura della forma di spettacolo.

Tutta questa dislocazione di vissuti, progetti, merci, sogni e la concomitante coesistenza di mutazioni culturali e sociali, di difficile definizione, ha di fatto svalutato il paradigma che presupponeva uno stretto rapporto tra cultura e territorio.

Sono processi invia di sviluppo e ancora incontrollabili perchè riguardano l’intero pianeta.

Processi che hanno fatto conoscere in ogni angolo della terra la facilità e la comodità dei collegamenti, la velocità di circolazione delle informazioni, i vantaggi della mobilità, la varietà e la ricchezza dei consumi, tutte cose che sono sempre esistite, ma un tempo limitate alle élite, a cominciare da quelle imprenditoriali e finanziarie.

Questo non significa che tutti sono nomadi, così come è vero che solo un numero ridotto di individui vive oggi sino in fondo i processi della globalizzazione.

Infatti, molta parte dell’umanità è ancora dominata dai processi localistici radicati e diffusi da per tutto, spesso degradati o limitanti.

Tuttavia, le élite del pianeta – politiche, finanziarie, manufatturiere, militari, religiose, culturali e scientifiche – s’identificano tra di loro ogni giorno di più, assumendo come modelli di vita i processi (a loro vantaggiosi) della globalizzazione.

Che cosa comporta tutto questo al di là dell’epifenomeno del nomadismo di élite?

Che le differenze – spesso profonde e devastanti – che affliggono il mondo assumono fisionomie, percorsi, esiti assolutamente diversi dal passato.

Soprattutto, queste differenze fanno saltare le contrapposizioni binarie, come sono quelle tra culture dominanti e sub-culture, tra centro e periferia, sminuendo la visibilità tra colonizzatori e colonizzati.

Dal punto di vista dell’identità i nuovi confini socio-culturali si spostano in continuazione senza alcuna linearità.

C’è poi da osservare che un tempo le diversità culturali andavano incontro all’assimilazione o al rifiuto, oggi, invece, si manifesta nei loro confronti una volontà mimetica.

Gli avversari dell’Occidente tendono a imitarne gli stili di vita e a volere i beni e le tecnologie che l’Occidente produce, feticizzandoli.

Possiamo dire che non solo i prodotti digitali, i beni di consumo e i divertimenti sono globalizzati, ma anche – a livello degli stili di vita – la passività politica, il consumismo, la sottoistruzione, così come, a livello abitativo, le bidonville, i campi profughi stabilizzati, gli accampamenti legati agli  stati di eccezione come sono quelli militari o climatici.

D’altro lato, scrive Arjun Appadurai – un antropologo inglese di origine indiana – appena le forze innovatrici provenienti dalle aree metropolitane sono portate all’interno di nuove società, tendono, in un modo o nell’altro, a subire un processo di indigenizzazione.

Questo processo riguarda la musica come i stili abitativi, i procedimenti scientifici come il terrorismo, gli spettacoli come i prodotti alimentari di massa.

In altri termini si da il caso che singole culture possono riprodursi o ricostituire la loro specificità sottoponendo le forme culturali transnazionali a un processo di indigenizzazione.  

Come ha notato il filosofo e sociologo polacco Zygmunt Bauman, i processi e i prodotti culturali oggi tendono a svincolarsi dalla loro aderenza ad uno spazio definito, perdono la loro identità territoriale, divengono mobili e a volte liquidi.

Più che la campagna è la città che subisce questi processi di globalizzazione.

Li sperimenta nei suoi ritmi di vita, nelle relazioni tra i gruppi – sociali, generazionali, etnici e sessuali – che la abitano.

Oggi, la pluralità culturale della città si manifesta nella costante presenza di localismi e nella continua elaborazione urbana del rapporto tra il locale e il globale.

Il tessuto urbano fornisce lo sfondo, i materiali e le occasioni per la celebrazione di rituali propri di ogni gruppo sociale che vuole affermare sia la sua diversità che il proprio inserimento nel contesto in cui si trova a vivere.

In questo contesto, poi, i mezzi di comunicazione di massa svolgono un’azione di moltiplicazione,  immettendo gli eventi e i loro protagonisti nella rete (culturale e digitale) che congiunge i diversi luoghi in cui risiedono i gruppi emigrati dalle stesse patrie e figli della stessa lingua.

È facile intuire come tutto ciò alimenti, musiche, vestiario, produzioni artistiche e artigianali, esperienze cucinarie che possono nascere sia come rimpianto, sia come rivendicazione di una identità lontana.

In queste condizioni la cultura – da quella di élite a quella popolare a quella diffusa dai mezzi di comunicazione di massa – ha cambiato completamente tempi, modi e luoghi della sua produzione.

Essa può ancora conservare qualcuna delle sue radici, ma deve assimilare anche i nuovi paradigmi transnazionali e deterritorializzati che l’affiancano, le si sovrappongono o la penetrano.

Così,i confini della colonizzazione continuano a essere  in principio territoriali e economici, ma successivamente vengono mescolati, sovvertiti, resi opachi dalla produzione di un immaginario – nella forma spesso di un orientalismo esotico – e da forme di comunicazione sempre più efficaci.

I

n questo contesto lo studio della cultura è cambiato.  Ora è proiettato su i nuovi paradigmi aperti dai processi di globalizzazione.

Per esempio non è più molto importante lo studio della cultura per aree geografiche specifiche,  mentre si è sviluppato il dibattito sulle diaspore, sugli esili, sui movimenti migratori.

Ancora, sono nate delle ricerche sul ruolo della memoria nella formazione dei nazionalismi, sono stati fatti degli studi sui modelli di articolazioni metropolitana di centro e periferia e sulla crescente difficoltà a applicare i “diritti umani” davanti alla relatività delle culture.

Per concludere, voler studiare le nuove interrelazioni tra cultura e territorio implica porre l’accento sui processi del nomadismo contemporaneo sia a livello globale che a livello locale, con particolare attenzione alla vita corrente, ai sogni, alle speranze e ai vissuti.

****************

Da almeno un ventennio a questa parte la definizione più comune di informazione è quella di “dati” più “significati”. 

Dati dotati di significato, che devono rispettare i significati del sistema scelto, il codice e/o il linguaggio in questione.

Va osservato però che i dati che costituiscono un’informazione possono essere dotati di significato indipendentemente dal destinatario dell’informazione.

Va anche aggiunto come lo sviluppo dei sistemi di comunicazione e di informazione ha conosciuto, soprattutto a partire dalla seconda metà del Novecento, una grande accelerazione, destinata ad avere, in questo secolo, importanti ripercussioni sull’economia, la politica, l’industria manufatturiera, oltre che sul costume, la cultura, gli stili di vita, i conflitti militari.

Si ritiene che questo sviluppo stia trasformando le stesse basi biosociali della conoscenza e del pensiero umano.

Va ricordato che tra le caratteristiche specifiche dei newmedia di questo secolo c’è quella di essere autopromozionali, vale dire, capaci di promuovere se stessi, generando dei miti che alimentano l’immaginario collettivo, suscitando attese spesso impossibili da realizzare.

In questo contesto le tecnologie dell’informazione e della comunicazione ( in inglese Information and Communication Technology, ICT), sono l’insieme dei metodi e delle tecnologie che realizzano i sistemi di trasmissione, ricezione ed elaborazione delle informazioni. 

Da un punto di vista storico è a partire dalla fine della seconda guerra mondiale che l’uso della tecnologia, nella gestione e nel trattamento delle informazioni, ha progressivamente assunto un’importanza strategica crescente sia per le istituzioni che per i singoli.

Oggi l’informatica –  cioè i congegni digitali e i programmi di software – e le telecomunicazioni – costituite dalle reti telematiche – sono i due pilastri su cui si regge la società dell’informazione.

È complesso dare una definizione univoca delle ICT, in generale possono essere considerate come una risorsa essenziale delle organizzazioni, all’interno delle quali è sempre più importante riuscire a gestire in maniera rapida, efficace ed efficiente il volume crescente di informazioni.

In questo senso sono considerate come uno strumento strategico in grado di mettere a disposizione ed elaborare dati e informazioni qualitativamente evoluti.

Più in generale, il fine ultimo delle tecnologie dell’informazione è la manipolazione dei dati tramite la conversione, la conservazione, la protezione, la trasmissione, il recupero, con l’aiuto del computer e delle tecnologie a esso connesse. 

Con l’espressione tecnologia dell’informazione si indica l’uso della tecnologia nella gestione e nel trattamento delle informazioni, in particolare per quanto riguarda l’uso delle tecnologie digitali, che consentono di creare, memorizzare, scambiare e utilizzare “dati” nei più diversi formati: numerico, testuale, video, auditivo, iconico e altro.

La trasmissione di informazioni tra calcolatori connessi fra loro, realizzata a partire dagli anni ’60 del secolo scorso, costituisce poi un fenomeno di grande portata pratica e concettuale.

Vale a dire testimonia la progressiva convergenza e integrazione di informatica e telecomunicazioni. 

Questi due settori in passato si sono sviluppati indipendentemente l’uno dall’altro, perché le telecomunicazioni utilizzavano soprattutto tecnologie analogiche.

Poi, a partire dagli anni ’70 le tecnologie informatiche hanno cominciato a essere mutuate dalle telecomunicazioni.  Infine, dalla metà degli anni ’80, anche grazie alla diffusione dei personal computer, e iniziata la rivoluzione digitale applicata al campo audio-visivo.

La successiva diffusione della telefonia cellulare, contemporanea alla digitalizzazione delle reti telefoniche e di tutti i media di comunicazione (voce, video, immagini, documenti) ha portato all’ integrazione e alla globalizzazione di tutte le reti.

La tecnologia dell’informazione comprende oggi le reti di comunicazione, i sistemi di elaborazione (qualunque sia la loro architettura) e la multimedialità.


“Le ICT sono dispositivi che comportano trasformazioni radicali, dal momento che costruiscono degli ambienti in cui l’utente è in grado di entrare tramite porte di accesso (possibilmente amichevoli), sperimentando una sorta di iniziazione.  

Non vi è un termine per indicare questa nuova forma radicale di costruzione, cosicché possiamo usare il neologismo RIONTOLOGIZZARE per fare riferimento al fatto che tale forma non si limita solamente a configurare, costruire o strutturare un sistema (come una società, un’auto o un artefatto) in modo nuovo, ma fondamentalmente comporta la trasformazione della sua natura intrinseca, vale a dire la sua ontologia.  

In tal senso, le ICT non stanno soltanto ricostruendo il nostro mondo: lo stanno riontologizzando.

(Luciano Floridi, La rivoluzione dell’informazione).


Possiamo dire che le ICT stanno costruendo un nuovo ambiente informazionale nel quale i nativi digitali trascorreranno la maggior parte del loro tempo e questo è quello che più interessa le scienze sociali.

Ritorniamo sulla relazione dei newmedia con gli individui.

É diffusa l’opinione che le conseguenze dello sviluppo dei sistemi di comunicazione siano sostanzialmente ambivalenti.

Alcuni ritengono che l’aumento delle informazioni e l’accresciuta velocità nella circolazione dei messaggi, tanto a livello micro (su scala locale), quanto a livello macro (su scala planetaria), non significano in modo automatico un miglioramento o un peggioramento nella qualità della vita individuale o della società.

Al contrario, altri ritengono che i sistemi di comunicazione e di informazione abbiano portato a un inquinamento culturale e mentale che sta provocando un degrado dell’ambiente simbolico umano, degrado che corre parallelo a quello dell’ambiente fisico e materiale e che altera il modo di produrre e l’organizzazione economica della società.

In breve, lo sviluppo dei newmedia può generare, soprattutto nell’opinione pubblica meno scolarizzata o anagraficamente anziana, grandi paure e nuove illusioni.

In questo contesto i newmedia possono essere considerati degli apparati sociali nei quali sono incorporate tecnologie per la comunicazione a distanza. 

La loro funzione principale è quella di connettere e/o di comunicare con il maggior numero possibile di individui e di istituzioni, riducendo al minimo i tempi di diffusione dei messaggi.

Nel corso di questo ultimo mezzo secolo essi hanno di fatto consentito il moltiplicarsi di contatti fra culture lontane, accrescendo gli scambi a livello planetario, e quindi sono stati un indubbio fattore di sviluppo, anche se ciò non esclude che ci siano fattori ambientali che possono ostacolare o distorcere la loro funzione o inquinare l’identità delle culture più deboli.

Il primo fattore ambientale di una certa rilevanza è costituito dal capitolo della disuguaglianza sociale.

La mancanza di istruzione e le condizioni di vita precarie (spesso al limite della sopravvivenza) in molti paesi – definiti del terzo o del quarto mondo – escludono ampi settori della popolazione dalla fruizione dei newmedia.

Per di più, molti mass-mediologi sostengono che lo sviluppo dei sistemi mediali e l’affermarsi di quella che viene chiamata la società dell’informazione non contribuisce a ridurre il gap esistente tra paesi ricchi e paesi poveri, ma porta a un suo aggravamento, generando nuove e più insidiose forme di diseguaglianza sociale e di ritardo culturale.

 

Un altro possibile ostacolo alla funzionalità dei newmedia è costituito dal fatto che in linea generale in tutti i paesi, compresi quelli definiti democratici, essi subiscono, in una forma o in un’altra, condizionamenti da parte degli ambienti politici, economici, finanziari e militari, e spesso sono sottoposti a forme di controllo più o meno esplicite da parte di strutture più o meno legali e riconosciute.

Va aggiunto che i newmedia, che abbiamo definito come apparati sociali, sono organizzati in base a routine formalizzate e dunque sono soggetti a quel fenomeno che in sociologia viene chiamato goal displacement, cioè, a una distorsione degli scopi primari per il quali sono stati costituiti.

Le ragioni classiche di questa distorsione possono essere le più diverse, vale a dire economiche, strategiche, tattiche, politiche.

Tra queste ragioni una delle forme più subdole di goal dispacement, perché inavvertita anche da chi ne è un attore, è la cosiddetta auto-referenzialità

In cosa consiste?

Nel fatto che sempre più spesso coloro che hanno a che fare coi newmediagiornalisti, dirigenti, professionisti dei vari campi della comunicazione – invece di rivolgersi al pubblico finiscono per dialogare tra di loro o con quei pochi che hanno un accesso privilegiato alle fonti della carta stampata e delle televisioni, come sono i leader politici, i grandi manager, gli intellettuali, insieme ad altre categorie di personalità ritenute, non importa se a torto o a ragione, influenti, dai campioni sportivi ai divi dello spettacolo.

Questa autoreferenzialità dei newmedia spicca nella sua evidenza se si considera l’importanza attribuita agli eventi e al modo di formarsi delle priorità comunicative (in fatto di temi etici, economici e sociali) e alla costruzione delle agende politiche (di chi governa e di chi sta all’opposizione).

Con la conseguenza di uno scollamento tra le élite del potere e l’opinione pubblica.

Tra gli effetti paradossali, prodotti dall’espansione dei sistemi di comunicazione, vi è anche quello per cui quanto più cresce la quantità dell’informazione diffusa dai newmedia, tanto più si appanna, si confonde o diminuisce l’attenzione del pubblico.

In altre parole, più i newmedia allargano l’area della comunicazione, meno riescono a farsi sentire e più perdono di autorevolezza. 

Si tratta di un fenomeno di saturazione che molti spiegano utilizzando la legge dell’utilità marginale che è alla base di molte analisi economiche classiche.

In ogni modo, oggi, il valore aggiunto dei newmedia, come è illustrato dal funzionamento dei mercati pubblicitari, è relativo alla loro capacità di attirare l’attenzione.

Come rilevano le indagini di mercato, il pubblico è in fuga dall’ascolto dei programmi televisivi e dalla lettura dei quotidiani.

Anche se questo calo non è strutturale è tuttavia progressivo e si manifesta in tutti i sistemi mediali giunti a una certa soglia di sviluppo.

Di più, questo calo sembra irreversibile fuori dagli stati d’eccezione, come sono le catastrofi natali, le guerre, i grandi appuntamenti sportivi, eccetera.

******************

Vediamo un po’ di storia.

A partire dalla prima metà degli anni ‘80 il sistema dei media è andato incontro a un cambiamento importante e rapido.

Per verificarlo è sufficiente ricordare che sino ad allora, in quasi tutti i paesi del mondo occidentale, vi erano soltanto pochi canali televisivi, spesso monopolio di Stato e in bianco e nero.

L’introduzione della televisione a colori, avvenuta in quel periodo, apparve da principio solo come un miglioramento tecnologico, in analogia con quello che successe nel cinema con l’introduzione della pellicola a colori.

Più o meno nello stesso periodo in cui fu introdotto il colore vi fu l’esplosione della videoregistrazione e l’arrivo sul mercato dei primi compact disc.

Ciò portò alla nascita di un nuovo settore di consumo mediale, quello del home video.

La conseguenza sul piano strutturale di queste innovazioni fu di portare a una convergenza e a un uso combinato delle diverse tipologie di produzione audiovisiva, diminuendo fortemente i tempi di circolazione dei prodotti comunicativi e riducendo di molto l’intervallo che separa la produzione dal loro consumo. 

Tra le innovazioni tecnologiche di quegli anni va ricordato anche il telecomando, che è più di una comodità, avendo determinato la nascita dello zapping.

Tutte queste innovazioni produssero una trasformazione degli assetti formali dei media.

Per esempio, negli Stati Uniti nacque la CNN, un canale televisivo che trasmette soltanto informazioni, ventiquattro ore su ventiquattro.

Oltre a rompere il preesistente sistema oligopolistico, dominato da alcune grandi compagnie televisive, la CNN introdusse un modello nuovo di gestione delle informazioni, quello della televisione tematica a flusso continuo che diffonde i programmi via satellite o via cavo e si finanzia tramite abbonamento.

In Europa ebbe fine il monopolio statale dell’audiovisivo e si affermò un modello misto di coesistenza tra radiotelevisione pubblica e radiotelevisione commerciale.

La pubblicità, che sino ad allora aveva avuto un’incidenza relativamente ristretta, s’impose come una componente centrale del palinsesto televisivo, investendo il vissuto quotidiano degli spettatori con i suoi stilemi e le sue metafore.

Era un nuovo linguaggio visivo che contribuì a alimentare un inedito e complesso immaginario collettivo che a sua volta diede vita a nuovi modelli culturali.

Nonostante fosse considerata, soprattutto dal mondo della cultura, come una forma di manipolazione e di persuasione occulta, la pubblicità divenne una tra le forme più originali di espressione della sensibilità e della cultura postmoderna…ma lo divenne a spese dei consumatori e della loro capacità di giudizio. 

Con il risultato che ancora oggi una affascinante signorina in mutandine mi induce a consumi inutili e a fidelizzarmi verso prodotti di massa di cui potrei fare a meno!         

In sostanza, il cambiamento sistemico, sviluppatosi nell’ultimo decennio del ventesimo secolo,  portò a un modo diverso di considerare il mezzo televisivo e a mettere in questione il concetto stesso di comunicazione di massa, così com’era stato inteso in precedenza.

La comunicazione di massa, in senso classico, è la forma culturale che ha caratterizzato la società industriale di fine Ottocento e dei primi decenni del Novecento, quando i media non-cartacei di fatto non esistevano o erano fruibili solo da una élite. 

Tra l’altro, è importante ricordarlo, la comunicazione di massa è stata una delle componenti che ha favorito la nascita dei dispotismi politici che hanno caratterizzato il Novecento.      

Spetta poi a Marshall McLuhan (1911-1980) il merito di aver intuito per primo le nuove implicazioni sociali della nascente comunicazione elettronica di massa.

Ricordiamo da subito una delle sue celebri e controverse tesi secondo la quale è il mezzo tecnologico che determina i caratteri strutturali della comunicazione, producendo effetti pervasivi sull’immaginario collettivo e indipendentemente dai contenuti dell’informazione che si sta veicolando.

In sostanza per McLuhan, the medium is the message, il mezzo è il messaggio.    

Al suo nascere la televisione era stata considerata nient’altro che un perfezionamento della radiofonia, una scatola dei suoni a cui veniva ad aggiungersi l’immagine.

McLuhan dimostrò che in realtà la televisione era un medium del tutto diverso. 

Non solo perché incorpora una tecnologia nuova, ma perchè comunica in base a una logica mediale sua propria

Il modo che McLuhan usava per esprimersi, aforistico e spregiudicato, costellato da enunciazioni paradossali, fecero sì che venisse amato e sostenuto da una schiera di seguaci entusiasti, quanto avversato aspramente fino ad essere considerato, da molti rappresentanti del mondo accademico, alla stregua di un ciarlatano.

Ciò portò a non poche incomprensioni delle sue teorie e a molti litigi.

Gli studiosi di comunicazione ricordano, a questo proposito, la spregiudicatezza con cui egli attaccò Wilbur Schramm (1907-1987), considerato allora come il maggior esponente della communication research.

Un filone di ricerche empiriche, sviluppatosi nelle università americane fin dagli anni quaranta del secolo scorso, che aveva portato a elaborato importanti conoscenze sui meccanismi della comunicazione di massa.

McLuhan sosteneva che la televisione, essendo un mezzo freddo, vale a dire povero di informazioni, in quanto comunica essenzialmente attraverso le immagini, richiede per funzionare la collaborazione dello spettatore, che deve poter attribuire un significato a ciò che vede sullo schermo, a differenza della radio, un medium caldo, che ha bisogno solo di essere ascoltata. 

   

Da questa osservazione McLuhan, in contrasto con la tradizione di studi sulla comunicazione di massa, ne deduceva – con una capriola logica – che la televisione, malgrado l’apparenza, è un dispositivo interattivo.

Dal canto suo, Schramm sosteneva che il pubblico non è completamente passivo, come affermava la cosiddetta Bullet Theory, o teoria ipodermica, di ispirazione behaviorista, ma sa essere attivo e capace di reagire, a uno stesso messaggio, in molti modi, a volte inaspettati.

Vediamo in breve che cos’è la Bullet Theory

Questa teoria detta anche teoria dell’ago ipodermico (dall’inglese Hypodermic Needle Theory) è una teoria che considera i mass-media come dei potenti strumenti di persuasione che agiscono direttamente sulla massa dei loro fruitori, considerati soggetti passivi e inerti.

Essa rappresenta uno dei primi tentativi di comprendere il funzionamento della comunicazione interpersonale in maniera sistematica.

Fu molto popolare soprattutto negli anni Quaranta del secolo scorso sulla base delle ricerche della psicologia comportamentale (behaviorismo).

Per queste ricerche, infatti, la comunicazione (dei mass-media) è assimilabile a un processo diretto di stimolo e risposta.

Traducendo alla lettera, il termine bullet  significa proiettile, il messaggio mediale in questa teoria è considerato come un proiettile che colpisce in modo diretto un soggetto – un target, un bersaglio  – che ha poche possibilità di opporsi.

In altri termini, si riteneva che il messaggio “sparato” dal medium venisse “iniettato” direttamente nella coscienza del ricevente senza che questi potesse evitarlo e senza che se ne rendesse conto. 

La Bullet Theory, che fin dall’inizio appariva molto schematica, ha oggi solo un valore più che altro documentario.  Il concetto di target usato ancora oggi in pubblicità, per indicare i destinatari di un annuncio, deriva da questa teoria e ne sottolinea la grande popolarità che aveva raggiunto.


La Bullet Theory si sviluppò negli Stati Uniti soprattutto tra le due guerre mondiali (1920-1930), tra i suoi divulgatori ricordiamo in particolare Harold Lasswell, uno dei teorici della communication research una disciplina che rappresenta, più che una teoria argomentata, un’ideologia che si respirava in quegli anni intorno agli effetti dei media. 

Occorre tener presente che in quel momento l’Europa era vittima dei grandi assolutismi politici e le masse erano assolutamente inconsapevoli del reale potere dei mezzi di comunicazione di massa, potere che invece spaventava molto gli uomini politici americani. 

Per riassumere.  Prendendo il nome dall’immagine dell’ago ipodermico (utilizzato per le iniezioni), questa teoria afferma che i messaggi colpendo gli individui, in modo diretto e immediato, sono in grado di modificare, gestire e controllare opinioni e comportamenti. 

In altri termini, la teoria dell’ago ipodermico (o, teoria del proiettile) postula un forte effetto/potere dei mass-media su un’audience passiva e indifesa, manipolata dalla propaganda e dagli interessi (politici e economici) più o meno occulti. 

Così, se una persona è raggiunta da un messaggio di propaganda, questa può essere facilmente manipolata e indotta ad agire secondo il messaggio ricevuto e senza averne una piena consapevolezza.


Ritorniamo a McLuhan.

A più di mezzo secolo dalla pubblicazione della sua opera più famosa e completa, Understanding media (1964), molte delle tesi sostenute da questo autore appaiono sorprendentemente attuali, soprattutto se riferite alle reti dei computer e alle nuove prospettive della comunicazione interattiva.

L’idea più sorprendente e funzionale di McLuhan è stata quella dei media come protesi, ossia come un’estensione del sensorio umano nell’ambiente e, insieme, un mezzo di interazione con esso. 

In sintesi Mc Luhan sosteneva che la comunicazione elettronica rende immateriale il nostro corpo, dilatandolo nell’etere con le nostre idee e che questo fenomeno è in grado di generare (come effetto collaterale) nuove forme di conflitto sociale.         

Un’altra geniale idea di McLuhan, largamente ripresa in seguito, è quella secondo cui la comunicazione elettronica, considerata la sua velocità e la possibilità di far circolare le informazioni quasi in tempo reale, rende il mondo un “villaggio globale.

Vale a dire, la velocità con cui circolano le informazioni, le persone e le merci, di fatto lo rimpicciolisce.
Tra gli interpreti più originali di McLuhan ricordiamo Derrick de Kerckhove (che di McLuhan è stato assistente e collaboratore).

De Kerckhove considera i media elettronici come psicotecnologie che stanno modificando il nostro modo di percepire l’ambiente e di pensare le relazioni fra ciò che riteniamo interno e ciò che riteniamo esterno.

Sviluppando il tema del villaggio globale de Kerckhove ha anche descritto l’avvento di una intelligenza connettiva basata su un nuovo brainframe (o, schema-mente), che rende obsoleti i limiti sia dell’individualismo che del collettivismo così come sono pensati dalle scienze sociali e dalla filosofia ottocentesca.

Questo tema di un’intelligenza collettiva/connettiva superindividuale generata dalle reti mediali interattive è stato affrontato anche dal francese Pierre Lévy, che ha cercato di razionalizzarlo e di presentarlo come il progetto ideale di nuovi legami sociali senza ostacoli.

Pierre Lévy (1956) è uno studioso di scienze sociali e si occupa dell’impatto delle reti digitali sulla società.

È stato allievo di Michel Serres e Cornelius Castoriadis, si è specializzato a Montreal ed è il titolare di una cattedra sull’intelligenza collettiva all’università di Ottawa.

Può essere definito un esperto delle implicazioni culturali dell’informatizzazione e degli effetti della globalizzazione.

Lévy sostiene che il fine etico di Internet dovrebbe essere soprattutto lo sviluppo dell’intelligenza collettiva, un concetto già introdotto da altri filosofi-informatici.

In una intervista Lévy ha dichiarato:

“In primo luogo occorre rendersi conto che l’intelligenza è distribuita dovunque c’è umanità, e che questa intelligenza può essere valorizzata al massimo mediante le nuove tecniche digitali, soprattutto mettendola in connessione. 

Oggi, se due persone distanti fisicamente tra loro sanno due cose complementari, per il tramite delle nuove tecnologie, possono davvero entrare in comunicazione l’una con l’altra, scambiare il loro sapere, cooperare.  In breve e per grandi linee questa in fondo è il nocciolo dell’intelligenza collettiva”.

Quanto alla tesi che il computer sia una protesi della nostra mente e che sia possibile, in un futuro più o meno prossimo, collegarlo a essa in modo da potenziare le nostre facoltà sensoriali e intellettive, è suggestiva e per ora utopica.

In passato questa tesi è stata sfruttata e resa popolare dalla letteratura di fantascienza, un filone letterario inaugurato da uno scrittore considerato un caso a sé, Philip K. Dick, che ha affrontato il tema dei simulacri, dei cloni e dei cyborg, e ha inaugurato la fantascienza cyberpunk.

Oltre a rimpicciolire emotivamente il mondo reale, i new-media digitali, cambiando la nostra concezione dello spazio, consentono la possibilità di creare nuovi luoghi, come le comunità virtuali, che pur non avendo come base una contiguità territoriale generano ugualmente delle relazioni di prossimità.


Luciano Floridi ha definito l’infosfera come “lo spazio semantico costituito dalla totalità dei documenti, degli agenti e delle loro operazioni”. 

Dove per “documenti” si intende qualsiasi tipo di dato, informazione e conoscenza, codificata e attuata in qualsiasi formato semiotico. 

Gli  “agenti” sono qualsiasi sistema in grado di interagire con un documento indipendente (ad esempio una persona, un’organizzazione o un robot software sul web).

Quanto al termine “operazioni” include qualsiasi tipo di azione, interazione e trasformazione che può essere eseguita da un agente e che può essere presentata in un documento.


Va infine segnalata la convergenza multimediale tra video e computer, anche se per ora il computer rimane – soprattutto nelle aree non-urbane – un artefatto usato di preferenza nel lavoro e nella vita attiva, mentre lo schermo televisivo continua a essere la scatola mediale che presiede al divertimento e al relax.

In ogni modo, anche se con ritmi più lenti del previsto, l’affermarsi di quella che molti definiscono la società dell’informazione, e che altri preferiscono invece definire società digitale o società in rete, sembra gradualmente proseguire.

 

Lo dimostra il crescente numero a livello planetario di possessori di personal computer, di tablet e di smartphone, che secondo un dato del 2015 sarebbero più di tre miliardi nel mondo.

Gli utenti attivi di Internet, cioè coloro che passano almeno un’ora alla settimana collegati alla rete, erano 327,5 milioni nel 2000, secondo alcune stime sono oggi (2019) più di tre miliardi e mezzo, vale a dire quasi la metà della popolazione mondiale.

Un paio di anni fa alcune rilevazioni della Società Nielsen hanno messo in luce che il rapporto degli utenti di lingua inglese con Internet sta cambiando.

Si valuta che le app (ricordiamo che app è l’abbreviazione della parola inglese “application“), ossia le applicazione software rappresentano più dell’80 percento del tempo trascorso su Internet mobile.

Quasi tutti gli intervistati hanno dichiarato che è più comodo scaricare le app che collegarsi a un browser come Chrome, Internet Explorer, Firefox, eccetera.

Se questa tendenza si confermerà il web è destinato a diventare un insieme di comunità chiuse, molto diverso dall’idea di rete immaginata qualche anno fa. 

Questa tendenza era stata intuita dalla rivista Wired che nel 2010 annunciò, con un criticato articolo di copertina: The Web is Dead, come si poteva stare un giorno intero su Internet senza stare un minuto in rete.

Vale a dire, si poteva leggere i giornali, trovare indicazioni stradali, consultare il meteo e intervenire sui social network senza aprire un browser.

Per quanto riguarda l’Italia, nelle aree metropolitane si trascorre più tempo navigando sullo smartphone (circa 250 minuti al giorno) che connessi a Internet (circa 80 minuti).

Ancora, il 60 per cento di chi ha meno di venticinque anni naviga solo con un device mobile.

Negli Stati Uniti la popolazione adulta trascorre l’equivalente di circa sei mesi all’anno nell’infosfera.

Stiamo dunque passando da una fase, in cui l’attività di connessione e di accesso alle reti che erano appannaggio solo di ristrette élite tecnocratiche o contro-culturali, a una fase in cui entrano in scena fasce sempre più ampie di pubblico che, negli Stati Uniti, arrivano a comprendere più dell’80 per cento delle famiglie.

La rapidità di questa evoluzione, anche se ancora fortemente squilibrata, può essere meglio compresa se si considera che alla radio occorsero circa quaranta anni per raggiungere un pubblico di cinquanta milioni di ascoltatori, alla televisione occorsero tredici anni per diventare popolare, mentre a internet sono bastati solo quattro anni.

In ogni modo le difficoltà nell’accertare quale sia l’influenza dei media sul pubblico ha portato i sociologi della comunicazione a distinguere tra gli effetti cognitivi della comunicazione e quelli persuasivi

Questa nuova prospettiva di ricerca è stata di fatto aperta dagli studi sul cosiddetto effetto di agenda.

Il termine agenda indica l’insieme dei temi (in inglese issue, in francese enjeux) a cui si attribuisce priorità nei processi di policy making

Secondo questa teoria, il più importante effetto dei media non è tanto quello di influenzare l’atteggiamento del pubblico pro o contro le alternative che un problema può avere, quanto piuttosto di rendere questo problema più visibile e quindi metterlo all’ordine del giorno e farlo considerare rilevante sia dall’opinione pubblica che dalla politica.   

Ciò viene chiamato agenda setting, o predeterminazione dell’agenda politica.


Apriamo una parentesi.

Uno tra i contributi più originali sugli effetti della comunicazione è costituito dalla teoria della spirale del silenzio.

Questa teoria fu elaborata negli anni Settanta del secolo scorso da Elisabeth Noelle-Neumann,  docente di scienza della comunicazione e fondatrice, nel 1947, dell’Istituto di demoscopia Allensbach (Institut für Demoskopie Allensbach) di Magonza in Germania.

Questa teoria tratta in modo particolare l’analisi del potere persuasivo dei massmedia

La tesi di fondo è che i mezzi di comunicazione di massa (ieri la televisione, oggi la rete e i social), grazie al notevole potere di persuasione che hanno su chi ne usufruisce e quindi, più in generale, sull’opinione pubblica, sono in grado enfatizzare opinioni e sentimenti prevalenti o convenienti, mediante la riduzione al silenziodelle opzioni minoritarie e/o dissenzienti. 

In particolare la teoria afferma che una persona singola è disincentivata dall’esprimere apertamente un’opinione – che percepisce essere contraria all’opinione della maggioranza – per paura di riprovazione e di isolamento da parte di questa maggioranza.

Questo fa sì che le persone che si trovano in tale situazione sono spinte a chiudersi in un silenzio che, a sua volta, fa aumentare la percezione collettiva (non necessariamente corretta) di una diversa opinione della maggioranza, rinforzando di conseguenza, in un processo evolutivo, il silenzio di chi si crede minoranza. 

Questa teoria ha avuto un notevole impatto sulla scienza della comunicazione, in modo particolare sullo sviluppo del dibattito sui poteri di persuasione dei media, in contrasto con le scuole liberali che sostenevano che l’effetto di essi sul pubblico non fosse rilevavate e che comunque fosse gestibile.

In estrema sintesi la tesi centrale della teoria detta della spirale del silenzio può essere riassunta così: Il costante, ridondante e caotico afflusso di notizie da parte dei new-media col trascorrere del tempo può sviluppare un’incapacità nell’opinione pubblica a selezionare e a  comprendere i processi di percezione e di influenza dei media stessi. 

Nel corso delle sue ricerche, Noelle-Neumann ha anche dimostrato che le persone posseggono una specie di senso statistico innato, grazie al quale riescono a capire quale è l’opinione prevalente e, in questo modo, a conformarsi a essa senza tradire la propria.

Oggi le indagini sul campo hanno provato che i new-media non promuovono da soli la spirale del silenzio (in quanto fenomeni simili sono stati riscontrati anche in società dove i mass-media non sono diffusi), ma sono in grado di accentuare in modo significativo la paura dell’isolamento e quindi il processo di adattamento all’opinione generale.

C’è poi da sottolineare uno degli effetti collaterali che conseguono alla spirale del silenzio.

È l’esercizio, da parte dei massmedia, di una pervasiva funzione conformativa di omologazione e di conservazione dell’esistente, che di fatto li spinge a svolgere un ruolo ostile al rinnovamento delle sensibilità, dei gusti e delle opinioni.

Per riassumere , secondo Noelle-Neumann gli individui si trovano da almeno mezzo secolo a questa parte immersi in uno stato di isolamento – definito pluralistic ignoranceper il quale sono indotti a cercare di comprendere se il loro punto di vista sia condiviso da altri, prima di esprimersi pubblicamente.

Se questi individui trovano delle conferme alla loro opinione, la sostengono apertamente, mentre tendono a tacere in caso contrario.

Si innesca così, anche non volendo, un processo a spirale in cui, di volta in volta, gli uni si zittiscono e gli altri parlano più forte finché non si raggiunge un punto di equilibrio

Da questo punto di equilibrio scaturisce poi un clima rappresentato dall’opinione dominante. 

new-media in questo processo svolgono un ruolo essenziale perché sono essi che forniscono rappresentazioni e narrazioni delle tendenze che si vanno affermando.

Ma è chiaro che tutto ciò è anche in relazione con il grado, maggiore o minore, di pluralismo dei mezzi di comunicazione.

(Cfr.,La spirale del silenzio – Per una teoria dell’opinione pubblica. Roma, 2002).


Ritorniamo al tema dell’agenda setting.

In una democrazia pluralistica l’agenda politica si dovrebbe formare entro dei forum di discussione aperti e pluralisti, forum di cui possiamo osservare una loro parodia nei talkshow, spettacoli a basso costo nei quali gli opinion leader e i rappresentanti degli apparati politici competono fra loro e interagiscono con i newmedia, cercando di stabilire a quali temi vada attribuita la priorità e di affermare una rappresentazione a loro favorevole del clima d’opinione. 

Va ricordato che la qualità di una democrazia, oltre che dal pluralismo dei mezzi di comunicazione, dipende anche dal mantenimento della distinzione dei ruoli tra coloro che informano e i politici.

Quando questa distinzione tende a scomparire, la capacità di tematizzazione dell’informazione viene meno, mentre il grado di auto-referenzialità del sistema di governo aumenta favorendo un distacco fra élite politica e cittadini.

In questo senso, l’influenza che i newmedia hanno sulla politica varia anche a secondo del contesto sociale e politico dell’ambiente in cui operano.

Nei paesi dove sono al potere i regimi autoritari, o dove è in corso una transizione alla democrazia, il giornalismo e i newmedia hanno quasi sempre svolto o svolgono una importante funzione democratica e contribuito positivamente al ristabilirsi delle libertà civili. 

Viceversa, nelle democrazie consolidate l’interazione fra newmedia e politica tende a produrre effetti involutivi.  

C’è poi da rilevare che nelle democrazie consociative, che si basano su dei sistemi elettorali proporzionali, tende a generarsi il fenomeno della autoreferenzialità.

Nelle democrazie maggioritarie, e in particolare nei regimi presidenzialisti, invece, la politica-spettacolo genera spesso forme di campagne negative basate sullo scandalismo e sull’attacco personale degli avversari che, a loro volta, diffondono cinismo e portano al rifiuto della politica da parte di larghi settori dell’opinione pubblica.

Tra gli elementi strutturali che caratterizzano l’evoluzione attuale delle democrazie mediatizzate, due in particolare vanno segnalati.

Il primo è costituito dall’uso sempre più frequente dei sondaggi d’opinione, non soltanto nell’imminenza delle campagne elettorali, ma in occasione di ogni evento o congiuntura di un qualche rilievo.

Questo crescente ricorso ai sondaggi assume la forma di una continua interrogazione del corpo elettorale e di una ininterrotta messa in discussione del consenso e degli equilibri di potere, che dà luogo al fenomeno delle campagne elettorali permanenti. 

Il secondo elemento, che si intreccia a questo primo aspetto, è quello della formazione di apparati sempre più massicci di consulenti ed esperti di comunicazione e di campaigning, che devono essere considerati come un tipo nuovo di attore politico, differenziato sia dagli apparati dei new-media che da quelli dei partiti o dei leader.

Su questi temi una linea di interpretazione critica che si potrebbe definire neo-tocquevilliana (da Tocqueville) è stata sviluppata in Francia da Pierre Bourdieu, il quale, già in un saggio del 1973, aveva affermato provocatoriamente che l’opinione pubblica non esiste e che le indagini d’opinione, lungi dall’essere obiettive, sono un simulacro della volontà popolare, costruito con la scusa di dare la parola alla gente e utilizzato poi (questo simulacro) come instrumentum regni.

Un punto di vista non dissimile è stato sostenuto negli Stati Uniti da Benjamin Ginsberg, un filosofo della politica docente alla John Hopkins University nel Maryland, secondo cui quella attuale è un’età in cui dominano le opinioni delle masse manipolate.

Per Ginsberg, tra le masse e i leader viene a formarsi una specie di circolo vizioso: i politici, interessati a assecondare il pubblico, con i sondaggi ne catturano l’immagine per poi usarla come una loro risorsa di potere.

Su questo tema, in particolare, Bourdieu ha insistito molto nei suoi ultimi scritti, accusando la televisione di cedere alla logica commerciale della misurazione dell’audience e di piegarsi alle esigenze demagogiche di quello che chiama il plebiscito commerciale.  …

*** ****************

Alcune considerazioni conclusive.

Le straordinarie potenzialità offerte dalle tecnologie della comunicazione, per essere sfruttate appieno, devono essere considerate sia in relazione ai rischi connessi che a un loro inappropriato utilizzo.

Il timore che la tecnologia possa sfuggirci di mano è sempre in agguato e ha radici profonde: basti pensare al mito di Prometeo o a delle figure come il Golem o Frankenstein.

Diciamo che da qualche tempo a questa parte non sono solo il nucleare, l’inquinamento ambientale, la chimica e la manipolazione genetica a rivelarsi pericolosi,  ma possono diventarlo anche le tecnologie digitali e alcuni fenomeni culturali spesso sottovalutati, come la cosiddetta esplosione informativa.

Per comprendere queste paure dobbiamo considerare anche le loro proporzioni.

Mentre la Biblioteca di Alessandria, con i suoi circa settecentomila rotoli di papiro e pergamena, conteneva tutto il sapere del mondo occidentale antico, il patrimonio librario della Bibliothèque Nationale de France che occupa oggi oltre 400 chilometri di scaffali, è solo un frammento delle nostre conoscenze.

Questa moltiplicazione delle informazioni, divenuta esponenziale con Internet e la telefonia cellulare, sta generando due fenomeni ancora incontrollati:

– l’anoressia informativa

– e il suo contrario, l’obesità informativa

In entrambi i casi il crescente proliferare dell’informazione riduce la capacità dell’uomo di assimilare in maniera razionale la conoscenza, spingendo, soprattutto i giovani, a assorbire in maniera ossessiva, e spesso acritica, informazioni non nutrienti.

A ciò va aggiunto il cosiddetto sporco digitale, cioè le tracce che lasciamo sulla rete tendono progressivamente a diventare indelebili.

Ad oggi i motori di ricerca registrano tutto, ma non esiste un processo condiviso che elimina dalle liste dei motori le informazioni non più attendibili o invecchiate.

Anche strumenti rivoluzionari e apparentemente democratici, come l’enciclopedia online Wikipedia, vanno usati con cautela perché è la massa dei lettori che decide circa la veridicità dell’informazione, ma questa massa, come è oramai evidente, tende il più delle volte a riportare solo fatti banali e dati ritenuti oggettivi, eliminando giudizi e opinioni.

Questo processo di gestione del consenso finisce per creare un’unica base condivisa e massificata di conoscenza, eliminando le differenze, le ambiguità, le incertezze, la criticità.

Ecco perché da occasione democratica Wikipedia si sta mutando, per chi non sa già o non ha dimestichezza con le informazioni, in uno strumento di omogeneizzazione culturale.

Per gli studi sociologici ogni analisi delle nuove tecnologie della comunicazione non dovrebbe assolutamente prescindere da come l’uomo ha reagito e si è adattato a esse.

Questo perché le tecnologie sono da tempo indissociabili dal cammino dell’uomo verso la conoscenza e l’affrancamento dalle forze della natura.

Un tale potenziamento delle capacità umane, infatti, si trascina dietro aspetti fortemente problematici.

Oltre ai benefici immediati e osservabili – maggiore velocità e capacità di calcolo, possibilità di accedere a enormi quantità di informazioni – possono subentrare effetti collaterali che, alla lunga, rischiano di vanificare i benefici conseguiti.

Non è raro che l’espansione di una funzionalità possa tradursi in una atrofizzazione di un’altra, soprattutto a livello dell’esperienza sensoriale.   

In passato, se l’uomo non era in grado di usare una specifica tecnologia, si limitava a non utilizzarla, o la faceva usare da chi n’era capace.

Con le tecnologie digitali, questo non è più possibile, non soltanto per la pervasività di tali tecnologie, vale a dire che tendono costantemente a diffondersi in ogni aspetto della vita corrente, ma anche e soprattutto, per la loro percepita necessarietà.

Oggi Internet è considerato un diritto e il cosiddetto – divario digitale – la separazione fra chi può accedere alla rete e chi no – viene ritenuta una nuova forma di esclusione che deve, almeno a parole, essere contrastata a ogni costo, con attenzioni e investimenti importanti nel campo dell’istruzione.

Nel mondo occidentale dimenticare ha un’accezione prevalentemente negativa.

Colui che dimentica è, per definizione, distratto, poco attento alle cose, svogliato, forse addirittura malato.

Ma per le neuro-scienze non è necessariamente così.

Se non si dimenticano i concetti obsoleti, non c’è spazio per le nuove idee.

In linea generale, se non scordassimo positivamente o attivamente alcune esperienze, o perlomeno se non fossimo in grado di contrastare i ricordi, non sempre potremmo apprendere qualcosa di nuovo, correggere i nostri errori, innovare vecchi schemi.

Per fare buon uso della memoria è quindi necessario sia saper ricordare sia saper dimenticare. 

Dimenticare, in buona sostanza, è importante tanto quanto saper accumulare informazioni, tanto quanto saper alleggerire la mente dai suoi fardelli, ogni qualvolta questi tendessero a diventare eccessivi.

Si può quindi parlare di una vera e propria auspicabilità dell’oblio, soprattutto nella società attuale, dove il bombardamento informativo è divenuto in alcuni campi eccessivo.

Il medium digitale poi è doppiamente pervasivo

È presente in modo sempre più diffuso negli spazi della vita corrente, come il lavoro, lo studio, la politica, il divertimento, la sessualità, la religione.

È un fenomeno che ha fatto emergere un’identità digitale che ci renda riconoscibili e unici anche all’interno di questa sfera e ci consente di costruire relazioni virtuali con altre identità digitali.

Va aggiunto che questo uso delle tecnologie digitali, di fatto, non consente solo un’estensione e un potenziamento delle nostre capacità mentali, ma in prospettiva consente un vero e proprio sdoppiamento della nostra personalità di cui non siamo in grado di valutare gli effetti.    

Oggi i siti personali possono avere vita propria, possono venire consultati da terzi senza che i proprietari siano in quel momento collegati online, possono raccogliere automaticamente le informazioni, segnalare eventi, rispondere a richieste esterne.

L’esempio più popolare è quello delle nuove tecnologie vocali che permettono ai computer o alle segreterie telefoniche non solo di parlare e leggere i messaggi, ma anche di capire quello che gli chiediamo.

Oppure alle tecnologie di personalizzazione che consentono di lasciare tracce in ambienti digitali pubblici, consentendo all’utilizzatore di essere riconosciuto, di riprendere il lavoro fatto fino all’ultimo collegamento, di ricordare le preferenze manifestate.

Tutti questi contenuti richiedono un luogo personale di archiviazione che potremmo chiamare personal digital space i cui aspetti innovativi non sono legati tanto alla dimensione tecnica, quanto alle potenzialità del sistema rese disponibili nella forma di uno strumento conoscitivo.

Potenzialità che consentono di realizzare una vera e propria memoria estesa, a complemento e integrazione di quella fisiologica. 

In  breve, ogni riflessione sulla comunicazione digitale non può prescindere da questa trasformazione dei recettori dei messaggi comunicativi.

Il personal digital space, come abbiamo già sottolineato, consente anche il cosiddetto dimenticare consapevole, risparmiando alla memoria lo sforzo di memorizzare informazioni in quel momento non rilevanti.

A questo proposito il fenomeno dei siti personali è ancora relativamente poco diffuso, anche se la sua componente più narcisistica, il blog, è oramai un congegno di massa.

I blog, infatti, sono utilizzati soprattutto per rendere disponibili i punti di vista di chi li gestisce invece di essere usati per organizzare la propria conoscenza per un facile riutilizzo.

Dobbiamo anche rilevare, giunti a questo punto, un altro fatto significativo:

In una società che sembra trasformare tutto in virtuale, la dimensione corporea è ritornata a essere centrale, quasi per una sorta di bilanciamento fra aspetti immateriali e aspetti materiali. 

Anche la crescente importanza – soprattutto in sede di management  – della comunicazione extralinguistica e in particolare del cosiddetto linguaggio del corpo (per fare un esempio) va in questa direzione.

Il luogo più interessante ed esplicito dove questo recupero del corpo sta avvenendo è nel mondo dell’arte con la performance.

I casi sono molti, alcuni estremi come le chirurgie plastiche pubbliche di Orlan pseudonimo di Mireille Suzanne Francette Porte o le performance di Stelarc, pseudonimo di Stelios Arkadiou, un artista australiano naturalizzato cipriota e considerato l’esponente teorico dell’estetica “postumana”.

Le stesse abitudini giovanili di comunicare tramite il corpo, non tanto vestendosi in un certo modo, ma utilizzando in maniera diffusa tatuaggi e piercing, sottolineano questa dimensione.

L’utopia cyborg di fondere la tecnologia con il corpo – che ha visto nel Futurismo una lucida e anticipatoria concettualizzazione – sta uscendo dalle avanguardie artistiche e dall’impegno politico per diventare linguaggio quotidiano.

Concludiamo questa parte del nostro corso.

Abbiamo esaminato a grandi linee il paradigma esplicativo dell’evoluzione della comunicazione dal punto di vista delle scienze sociali.

In altri termini, il modello di riferimento o, meglio, la matrice disciplinare con cui la sociologia affronta le interconnessioni (interazioni) che strutturano la vita corrente e le forme della comunicazione oltre il face-to-face.

C’è un punto critico che qui deve essere sottolineato e che abbiamo fissato all’inizio del Novecento.
La straordinaria mutazione seguita al diffondersi dell’elettricità, delle reti materiali e immateriali e dei congegni ad essi correlati può essere definita antropomorfa, perché ha coinvolto il rapporto tra corpo, mente ed esperienza della realtà, con esiti che ancora ignoriamo e con metamorfosi che continuano a rendersi palesi e a sorprenderci. 

Marshall McLuhan (1911-1980) diceva che la storia della comunicazione umana a partire dal congegno voce si può definire composta da tre fasi.
– Una fase predominata dalla forma orale (dall’oralità).
– Una fase dominata dalla
scrittura.
– Una fase dominata dall’
elettricità o meglio dai suoi artefatti

La prima è durata circa 250mila anni.  La seconda circa 2500 anni.  La terza, appena iniziata ha poco più di un secolo di vita.  Tendenzialmente sarà molto più breve della seconda.    

A proposito della fase dominata dall’elettricità McLuhan commenta:
Nell’era della meccanica avevamo operato una estensione del nostro corpo in senso spaziale.  Oggi, dopo un secolo e passa di impiego tecnologico dell’elettricità, abbiamo esteso il nostro sistema nervoso centrale in un abbraccio globale che abolisce tanto il tempo che lo spazio.” 

È come dire che tutte le forme di esistenza della modernità sono state unificate da un vettore spaziale-iconologico – cioè, strutturato sulle immagini – che ha finito per rappresentare il senso stesso del mondo.

Questo vettore è caratterizzato dal fatto di essere un potente strumento di sincronia di massa.

La sincronia è un concetto elaborato da Ferdinand de Saussure (1857-1913), il fondatore della linguistica, per indicare la capacità di un linguaggio di costruire un senso.
Occorre non sottovalutare il fatto  che i linguaggi non-umani, animali o artificiali, servono a comunicare, non a costruire paradigmi cognitivi sensati (fondati sui processi di simbolizzazione).   

Parlando dei modi di connessione abbiamo visto che il modello di connessione che di fatto ha inaugurato il Novecento è stato un congegno straordinario, la radio, che ha dato vita ai primi importanti fenomeni di sincronia di massa.

Il carattere innovativo di questo modello di connesione sta nel fatto che il cuore della comunicazione non ha più al centro lo scambio comunicativo tra due o un piccolo gruppo di soggetti, ma il diffondersi rapido dell’informazione come una merce/prodotto da uno o più centri organizzati verso una moltitudine di consumatori

Per mostrare l’efficacia di questo fenomeno di sincronia va ricordato l’impatto sui radioascoltatori di una trasmissione radiofonica, La guerra dei mondi di Orson Welles (1915-1985), realizzata negli Stati Uniti da questo giovane regista ventitreenne nel 1938, la vigilia di Halloween, la festa che noi chiamiamo di Ognissanti.


Una curiosità. C’è nel Van Nest Park, a Grover’s Mill, nel New Jersey, un monumento commemorativo eretto nell’ottobre 1998 nel luogo di atterraggio dei marziani secondo la trasmissione radiofonica,


In altre parole quello che fino ai primi del Novecento era affidato all’affabulazione di poeti, cantori, scrittori, eruditi, divulgatori comincia a essere distribuito su larga scala prima dalla radio e poi dalla comunicazione filmica, televisiva, e infine televisivo-informatico-personalizzata.


Apriamo una piccola parentesi su come la sociologia definisce la multimedialità

Diciamo che è la compresenza di più strutture comunicative sullo stesso supporto informatico che moltiplica i piani di lettura e, per conseguenza, i processi interpretativi. 

Per estensione si parla di contenuti multimediali quando un’informazione si avvale di molti media, immagini in movimento (video), immagini statiche (fotografie), musica, grafi e testo.
Wikipedia è l’esempio più popolare di questa multimedialità. 

La multimedialità non va però assolutamente confusa con l’interattività.

L’equivoco, in genere, nasce dal fatto che la multimedialità è in genere interattiva, cioè, consente all’utente di interagire con essa. 

Che cosa vuol dire? 

Che si può comunicare con il mouse o la tastiera e ricevere delle risposte.

Perché è importante la interattività

Perché essa indica che un sistema non è fisso, ma varia al variare dell’input dell’utente o, meglio, varia in base al “potere cognitivo” di costui. 

In questo modo si riproducono le differenze culturali tra gli utenti dei sistemi informatici e spesso si accentuano. 

La maggior parte dei sistemi e dei congegni della modernità sono interattivi.
In linea di principio, anche una lavatrice lo è, perché di fatto modifica il suo programma in base alle nostre richieste. 

Il sistema interattivo per definizione è il computer.
Mentre non era interattiva la televisione analogica, per questo il suo consumo era definito una fruizione passiva.
La televisione digitale, invece, può essere interattiva e la sua attualità dipende proprio da questo, di essere suscettibile di
feedback.    


Va sottolineato che mentre l’interfaccia della lavatrice è un pannello di comandi attraverso il quale i suoi programmi entrano nel mondo di chi la utilizza.

L’interfaccia digitale è una porta attraverso la quale l’utente è messo in contatto con il cyber-spazio.

In altri termini siamo in presenza di una nuova e assolutamente inedita dimensione del fenomeno migratorio: dall’habitat fisico all’infosfera.

Afferma Luciano Floridi: Quando gli immigranti digitali saranno sostituiti dai nativi digitali il corso dell’e-migrazione sarà completato e le future generazioni si sentiranno sempre più deprivate, escluse, svantaggiate e povere, ogni qual volta si troveranno disconnesse dall’infosfera.

Si può dire che la comunicazione digitale permette oramai una simultaneità intercognitiva delle esperienze che ha dato vita alla rimediazione (remediation) della realtà. 

Floridi parla di una ri-ontologizzazione

In un certo senso è come dire che i new-media sono reali e che l’esperienza che attraverso essi si acquisisce è il soggetto stesso della rimediazione

Ritorniamo al tema della connessione.
Che cosa va rilevato dal punto di vista fenomenologico?

Che essa dipende dai metodi, dalle forme, dalle tecniche con cui questa connessione si effettua che la comunicazione stessa evolve anche a dispetto delle attese degli utenti.   

Evolve anche e soprattutto “con” e “per mezzo” dei meccanismi socio-economici che con essa interagiscono. 

In linea generale va notato un fatto a cui non siamo – da un punto di vista sociale preparati – che nell’ambito dell’universo digitale le disparità economiche hanno un impatto minore delle disuguaglianze cognitive.    

Se osserviamo la storia di questo ultimo secolo vediamo con chiarezza gli effetti di massa che tutto ciò ha generato tra i consumatori-utenti:
* Imitazione massiccia degli stili di vita delle élite dello spettacolo e del potere economico.

* Imitazione degli atteggiamenti divistici dello starsystem.

* Uniformazione del modo di pensare il proprio corpo e il proprio modo di abbigliarsi sviluppando una sorta di conformismo creativo.

* Assimilazione, il più delle volte inconscia, dei messaggi che orientano i consumi e le opinioni politiche ed etiche. 

Queste nuove forme di comunicazione hanno anche trasformato il modo di pensare il tempo.
Il presente che viviamo si è dilatato e in esso non si coglie più il fluire della “temporalità”, cioè, del divenire.

Per di più, viviamo un tempo visuale che fatica a diventare tempo storico.

Con quali conseguenze?
Che le strutture narrative, che un tempo contribuivano alla costruzione del senso, si sono affievolite, mentre il progredire delle frontiere digitali – va di pari passo con le trasformazioni dei meccanismi cognitivi e degli artefatti legati alla visione.
In breve, il nuovo dominio del tempo e dello spazio amplia i poteri della mente, nello stesso movimento con il quale altera il fluire della coscienza conferendogli una dimensione visuale.

Sotto un altro aspetto è come se la contingenza legata alla visualità avesse preso il posto della narrazione (story-telling).  Cioè, del fluire del narrato.
Più concretamente, l’avvento del world wide web (www) ha segnato l’inizio di un’era di cui non sappiamo ancora tracciare in modo attendibile il divenire.

Diciamo che i new-media – a ragione della loro struttura comunicativa – modificano profondamente la nostra percezione della realtà e della cultura senza per altro che gli uomini lo percepiscano nel momento in cui queste modificazioni avvengono.

Lo intuì Marshall McLuhan (1911-1980), che lo sintetizzò in una formula efficace:

Il medium è il messaggio o, meglio, sul piano metaforico, il massaggio. 

Il titolo del libro a cui questa formula fa capo è: The medium is the massage, McLuhan lo scrisse con Quentin Fiore nel 1967.


Alcuni dicono che il mezzo è divenuto il massaggio a causa di un errore del tipografo che entusiasmò McLuhan, che lo lesse come “mass.age”. 

Più verosimilmente, considerati gli studi di McLuhan, è ricavato da un’affermazione di Thomas S. Eliot, nato in America, ma stimato come uno dei poeti inglesi più famosi del Novecento.

Eliot in un suo saggio critico scrisse che il poeta si serve del significato come un ladro di serve del pezzo di carne che lancia al cane di guardia per distrarlo e entrare in casa. 

Per analogia possiamo dire che credere che un sito Internet trasmetta contenuti piuttosto che “forme di mutamento” è come pensare che lo scopo del ladro sia sfamare il cane di guardia

In realtà noi siamo massaggiati (circuiti) dai media e in qualche modo plasmati da essi. 

In altri termini, i newmedia ci condizionano e contribuiscono a modellare il nostro modo di pensare.    

Non va dimenticato che per McLuhan, IL CONTENUTO DI UN MEDIUM E’ UN ALTRO MEDIUM.  


McLuhan è l’autore più famoso di quella che è stata definita la Scuola di Toronto, a cui hanno dato il loro contributo Harold Innis, Walter Ong, Joshua Meyrowitz e molti altri.

Il fatto che la comunicazione visuale di massa sia diventata una merce preziosa rende estremamente importante lo studio delle strategie con cui vengono prodotti e diffusi i messaggi, specialmente quando lo scopo di questi è d’influenzare i comportamenti dei destinatari.

Per la sociologia i massmedia vanno dunque considerati dei nuovi, potenti e in parte incontrollabili agenti di socializzazione, come lo erano ieri la famiglia, gli amici, le piazze, i teatri, la stampa popolare.
Incontrollabili soprattutto dal punto di vista della loro capacità di manipolare l’opinione.   

Questa socializzazione dipende sia dalle strategie intenzionali (come sono quelle contenute nelle trasmissioni radiofoniche, cinematografiche, televisive e in Internet…)

Sia da effetti indiretti (come la massificazione dei consumi e degli stili di vita che scaturiscono dalla pubblicità mascherata da informazione o occulta, com’è quella dei telefilm, dei reality show, dei serial. 

Alcuni ritengono che queste nuove forme di socializzazione siano diseducative perché si concentrano sul solo vedere svalutando gli altri sensi.

Altri, fatalisti o ottimisti, poco conta, ritengono che ci aspetta un futuro all’insegna del visuale o, meglio, di una visual culture.

Nei paesi della fascia temperata del pianeta e, in particolare, in quelli ad industrializzazione avanzata, i bambini stanno davanti alla televisione, ai computer o alle tablet per più di quaranta ore la settimana.  (Dato del 2016)
Cosa comporta questo?
Un’accentuarsi della difficoltà a distinguere la realtà dalla finzione. 

Una disumanizzazione dell’Altro da sé.

Il fatto che ci sia tanta violenza sul piccolo schermo induce il bambino ad una vera e propria indifferenza empatica per i problemi altrui.

Come tutti hanno avuto modo di costatare, nel mondo degli adulti ci si commuove per gli avvenimenti di una fiction e si resta indifferenti mentre sullo schermo delle news scorrono scene di fame o di violenza.  Per di più questi adulti non hanno alle spalle una storia televisiva come quella dei loro figli. 

Un’accentuata difficoltà a distinguere tra gli oggetti – in particolare quelli animati – e le persone, che induce a pensare di poter trattare le seconde come se fossero cose. 

Un accrescimento dell’aggressività (che può essere connessa ai nuovi paradigmi della velocità).  

In altri termini, di come si ricompone il tema della estetizzazione della società e dei  nuovi valori che promuovono l’etica del simbolico e la formazione dell’immaginario.

Il punto di partenza è il superamento della civiltà della televisione – un congegno sostanzialmente passivo che ha relegato lo spettatore a semplice consumatore o adoratore di merci – per arrivare a una società nella quale il computer è il simbolo di una nuova stagione di forme e strategie interattive.
La rete, in sostanza, è destinata a diventare uno strumento di nuove aggregazioni socio-culturali basate sia sugli interessi che sulle affinità di coloro che sapranno gestirla.

Qui c’è una considerazione da fare.

Se non saranno alterati eccessivamente (da un punto di vista economico) i parametri per accedere al web, in questa nuova visione sociologica delle reti i rapporti sociali riacquisteranno una parte di quel potere che hanno perduto con l’affievolirsi delle ideologie nel corso del Novecento.

Sotto l’aspetto delle architetture cognitive sembra che tutto tenda a far si che l’informazione diventi il “vero” ambiente (assimilabile alla forma di un neo-luogo) in cui si muovono gli uomini e le idee. 

Un ambiente in cui sarà determinante, per stabilirne il valore, l’importanza che acquisteranno i congegni che veicolano i messaggi informativi.

Un’idea già avanzata da McLuhan che affermò come i media moderni possano essere equiparati a delle forme ambientali in cui vive l’uomo che essi stessi modellato. 
L’ambiente digitale, in buona sostanza, è un nuovo medium e sembra, paradossalmente, che l’uomo abbia realizzato un modo di vivere nelle sue fantasie e nei suoi sogni.    

Del resto, quando l’informazione viaggia alla velocità dell’elettricità, il mondo delle tendenze, delle immagini e delle voci diventa il mondo reale, o se si preferisce, lo specchio del mondo che conosciamo.

Ma perché questa nuova configurazione del mondo diventa il mondo reale?

Perché nel sistema delle comunicazioni via web l’intervallo temporale tra lo stimolo e la risposta, tra chi trasmette e chi riceve è collassato.

Da tutto questo deriva una nuova interdipendenza, che si realizzerà pienamente entro la fine del ventunesimo secolo, tra le tendenze sociali, economiche, culturali e politiche.

Una interdipendenza che renderà tutto apparentemente incerto (liquido) e certamente complesso, facendo crescere la necessità, poco importa se reale o solo immaginaria, di nuove forme di sicurezza non solo sociale. 

Sotto un altro aspetto, tutto si presenta accelerato e, per questo, vissuto in modo sempre più precario e aggressivo.
C’è continuamente meno spazio tra l’azione e la reazione, tra gli stimoli e le risposte del pensiero connettivo, con la conseguenza che si sta formando una sorta di contiguità tra il pensiero che pianifica e l’azione.

La rete finisce così per diventare una sorta di moltiplicatore, sia positivo che negativo, di tutti i processi reattivi prodotti dal comportamento collettivo. 

Dalle attività legate al commercio, al loisir, agli affari, allo sport e, non da ultimo, al terrorismo.

In pratica è come se dicessimo che l’inconscio collettivo sta scivolando o, se si è ottimisti, evolvendosi verso un inconscio connettivo. 

Un inconscio dove non domina più il simbolico, ma ciò che è condiviso nel web.

Questo globalismo planetario che sta delineandosi come il nostro futuro si fonda soprattutto su due fattori, il multiculturalismo e la condivisione dei destini.

Come dicono i poeti e i visionari di questa nuova realtà: Una farfalla sbatte le ali in Cina e in Europa trema una montagna. 
Una tale condivisione dei destini è un punto importante per le scienze sociali perché ridefinisce l’individuo dal punto di vista delle sue responsabilità sociali, economiche, ecologiche e etiche.

In altri termini si sta sviluppando un nuovo paradigma intorno al tema della responsabilità civica e pubblica, perché globalità significa anche estensione delle responsabilità.

Non per caso nel tempo della velocità elettrica siamo tutti più vicini con il risultato che spesso il problema del mio vicino è anche il mio problema, sia che si parli di politica che di diritti umani, di economia, guerra o privilegi. 

Da questo stato di cose si genera per reazione l’atteggiamento nby – not in my back yard, non nel mio giardino. 

In che cosa consiste? 

Nel riconoscere come necessari, o possibili, gli oggetti o le circostanze che stanno alla base del contendere, ma allo stesso tempo nel non volerli nel proprio ambiente o nel proprio territorio a causa delle eventuali controindicazioni o disagi di cui sono portatori.  …

Per concludere la “nuova modernità” si sta dunque configurando secondo tre direttrici fondamentali:

– L’interconnettività globale, vale a dire planetaria.   

– Un’accelerazione mai conosciuta nell’evoluzione degli stili di vita. 

– Una serie di trasformazioni ecologiche globali dovute all’interazione dei fattori evolutivi, sociali, culturali, economici e tecnologici. 

Tutto questo riuscirà compatibile, osservano gli organismi internazionali, se:

– Miglioreranno le condizioni di vita.  Ancora oggi più del venti per cento della popolazione globale vive in condizioni di povertà estrema.

– Se cresceranno le aspettative di vita alla nascita e se si saprà gestirle.

(L’aumento della vita media, infatti, crea dei forti problemi sociali ed economici, come dimostra in Italia la discussione sulle pensioni d’anzianità.)

– Se saranno risolti il problema dell’alfabetizzazione e quello dell’emancipazione delle donne e dei più deboli in genere.

– Se sarà realizzato un accesso diffuso ed economico ai mezzi di comunicazione.

– Se crescerà sia sul piano quantitativo che qualitativo il “prodotto interno lordo” dei paesi

industrializzati e se si svilupperanno le forme della democrazia nei paesi delle zone povere.

– Se le tensioni sociali – soprattutto quelle legate ai nuovi flussi migratori – non si trasformeranno in un rifiuto al cambiamento.

– Infine, ma non da ultimo, se non proseguirà a questa velocità la rottura degli equilibri naturali e climatici.

FINE SECONDA PARTE