PAGES

Appunti di Sociologia della Comunicazione – A.A.2018-19 – Parte II

SOCIOLOGIA DELLA COMUNICAZIONE

PARTE SECONDA

APPUNTI NON REDAZIONATI AD USO SCOLASTICO.   – IED 2018-19.

Appunti di Sociologia della Comunicazione – parte II – versione PDF

I NUOVI SCENARI SOCIO-DIGITALI.

Nota Introduttiva.

C’è una importante correlazione che si sta sviluppando tra le ICT digitali (tecnologie dell’informazione e della comunicazione)  e quella che in filosofia è chiamata la coscienza del sé.

(L’espressione indica l’uso della tecnologia nella gestione e nel trattamento dell’informazione, specie nelle grandi organizzazioni. In particolare riguarda l’uso di tecnologie digitali che consentono all’utente di raccogliere, creare, memorizzare, scambiare, utilizzare e processare informazioni (o “dati”) nei più disparati formati: numerico, testuale, audio, video, immagini e molto altro.)

Il ciclo dell’informazione: Generare – Raccogliere – Registrare e immagazzinare – Processare – Distribuire e trasmettere – Usare e consumare – Riciclare e cancellare.

 

Questa correlazione coinvolge sia il nostro modo di confrontarci con l’Altro da noi, che il nostro modo di relazionarci al mondo o, meglio, alla natura materiale delle cose.

Oramai è un dato di fatto.  Da almeno una ventina di anni, grazie al digitale, siamo circondati (molti dicono immersi) da/in nuovi e inediti geo-scenari sociali e culturali e dai loro risvolti economici e politici.

Diciamo che siamo circondati dalle nanotecnologie.  Siamo avvolti nell’internet delle cose.  (Nelle telecomunicazioni l’internet delle cose è un neologismo riferito all’estensione di internet al mondo degli oggetti e dei luoghi concreti.)  Siamo circondati dal web semantico.

Con il termine di web semantico – un termine coniato dallo scienziato inglese Tim Berners-Lee – si intende la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini, ecc…) sono associati ad informazioni e a dati che ne specificano il contesto semantico in un formato adatto all’interrogazione e interpretazione.

In questo modo, con l’interpretazione del contenuto dei documenti del Web semantico saranno possibili sia ricerche più evolute delle attuali – basate sulla presenza nel documento di parole chiave – sia operazioni specialistiche come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice collegamento ipertestuale.

Ancora, siamo utenti del cloud computing.  Una tecnologia che consente di usufruire, tramite server remoto, di risorse software e hardware (come memorie di massa per l’archiviazione di dati), il cui utilizzo è offerto come servizio da un provider tramite abbonamento.

Possiamo usufruire di giochi basati sul movimento del corpo.

Di applicazioni per gli smartphone, per i tablet, per il touch screen.

Abbiamo la possibilità di usufruire del GPS, un sistema di posizionamento satellitare che permette in ogni istante di conoscere la longitudine e la latitudine di un oggetto

Ricordiamo che i dispositivi muniti di un ricevitore GPS sono tantissimi: navigatori, smartphone, tablet, smartwatch, solo per citarne qualcuno.

GPS è l’acronimo di Global Positioning System, si tratta di un sistema per il posizionamento globale.  Grazie al GPS è possibile localizzare la longitudine e la latitudine di oggetti e persone.

Il tutto avviene con i satelliti che stazionano nell’orbita terrestre e permettono di sapere in ogni istante l’esatta ubicazione di un luogo.

Ricordiamo a questo proposito che i satelliti contengono un orologio atomico che calcola con estrema precisione l’ora del momento in cui avviene la trasmissione del segnale dal satellite, informazione essenziale, insieme a quella della posizione del satellite, perché il ricevitore GPS possa calcolare di conseguenza la propria posizione.

Non da ultimo siamo immersi nella realtà densificata, tra droni (vale a dire oggetti volanti radiocomandati), auto che si guidano da sole, stampanti 3D, social media, cyber-guerre…

 

Sono tutti argomenti che costituiscono un terreno di polemiche tra tecnofili e tecnofobici e un’ampia discussione tra coloro che si domandano che cosa non si comprenda o si nasconda dietro tutto questo.

Che cosa dobbiamo aspettarci?

E soprattutto, la cosa più importante: possediamo una prospettiva ermeneutica per comprendere e gestire tutto questo?

La difficoltà maggiore è riuscire a comprendere quanto queste tecnologie sono estese e come hanno potuto diventare forze ambientali, antropologiche, politiche, sociali e, non da ultimo, culturali, vale a dire, capaci di interpretare e di trasformare il qui ora dell’esistenza.

 

Queste nuove tecnologie, a differenza di quelle arcaiche, hanno il potere:

–          di creare e plasmare la realtà fisica e intellettuale,

–          di modificare la nostra capacità di giudizio,

–          di cambiare il nostro modo di relazionarci con gl’altri,

–          di modificare la nostra Weltanschauung e,

–          differenza importante, sono in grado di fare tutto questo in modo pervasivo, profondo e continuo.

In conclusione, volenti o nolenti – noi globalizzati – ci troviamo a vivere nell’infosfera all’alba di un millennio che ancora non comprendiamo.

 

I punti critici di queste nuove problematiche sono noti.

Saremo capaci di ottenere il massimo dei vantaggi dalle ICT?

Saremo capaci di minimizzarne gli svantaggi?

Quali rischi corriamo nel trasformare il mondo in un ambiente sempre più digitale?

A parte ciò, a ragione della loro natura queste tecnologie ci costringeranno dentro spazi fisici sempre più inconsistenti e concettualmente sempre più limitati.

 

Perché queste domande sono necessarie?

Sostanzialmente perché oggi le novità non danno più vita a delle fratture nella continuità che siano facilmente e a breve termine ricomponibili o assorbibili.

In linea generale per comprendere queste novità abbiamo bisogno di una nuova filosofia della natura e della storia, di una nuova antropologia e di una nuova scienza della politica.

Diciamo che ripensare il presente e il futuro in un mondo sempre più digitalizzato richiede una nuova filosofia dell’informazione.

La società dell’informazione ha le sue radici nella scrittura e nell’invenzione della stampa e dei mass media.

Cioè nella capacita di REGISTRARE e di TRASMETTERE.

Oggi questa società si è evoluta con la capacità di PROCESSARE.

Una capacità che, paradossalmente, ha contribuito a generare nuove forme di  DEFICIT CONCETTUALI.

 

I paesi del G7 – Canada, Francia, Germania, Giappone, Gran Bretagna, Italia, Stati Uniti –  (in realtà questi paesi sono molti di più), costituiscono quella che si chiama una società dell’informazione.

Perché?

Perché più del settanta per cento del PIL dipende da beni intangibili – vale a dire che concernono l’informazione – e non da beni materiali, come sono quelli del settore agricolo e manifatturiero.

***

Vediamo alcuni lemmi legati al tema dell’infosfera a partire dalla definizione di algoritmo.

 

L’algoritmo è un processo logico-formale che si struttura, articolandosi in una serie di passaggi logici elementari.

Questo processo conduce a un risultato definito da un numero finito di passaggi.  (L’espressione di algoritmo deriva dalla latinizzazione del nome del matematico persiano Muhammad Ibn Musa al-Khwarizmi, vissuto nel nono secolo dell’era comune.)

Lo schema logico di un algoritmo si può esprimere con la forma if / then – SE/ALLORA.

Nel mondo che viviamo sappiamo (per esperienza) che ogni passaggio logico comporta una decisione che influenzerà il passaggio successivo.

C’è un gioco che illustra bene questo. È la morra cinese.

Per vincere a questo gioco i passi elementari possibili sono tre:

Se sasso, allora carta.  Se carta, allora forbice. Se forbice, allora sasso.

Fatte le debite proporzioni, i computer che giocano a scacchi operano nello stesso modo.

A ogni mossa del nostro avversario un algoritmo cerca le contro-mosse possibili, valuta le possibilità e seleziona la migliore.

L’importanza degli algoritmi (cioè di questi processi logico-formali) è esplosa con la nascita dell’informatica.


L’informatica è la scienza che studia l’elaborazione delle informazioni e le sue applicazioni.

Più precisamente, l’informatica si occupa della rappresentazione, dell’organizzazione e del trattamento automatico della informazione.

Il termine deriva dal francese informatique (composto di INFORMATion e automatIQUE, informazione automatica) coniato da Philippe Dreyfus nel 1962.

L’informatica è una scienza indipendente dal calcolatore che ne è solo uno strumento, ma va da se che lo sviluppo dell’informatica è stato ed è tuttora strettamente legato all’evoluzione del calcolatore.

Infatti, pur avendo radici storiche antiche l’informatica si è sviluppata come disciplina autonoma solo a partire dagli anni 1960, sulla spinta innovativa dei sistemi di elaborazione e del progresso nella formalizzazione del concetto di procedura di calcolo, che possiamo far risalire al 1936, quando Alan Turing elaborò un modello di calcolo, oggi noto come macchina di Turing.


Dunque, in linea generale possiamo dire che i computer, i tablet, gli smartphone e gli oggetti connessi sono costruiti secondo uno schema teorico chiamato “macchina di Turing”.

In realtà questa macchina non è un oggetto, ma un concetto logico astratto elaborato dal matematico inglese Alan Turing.

Si compone di due parti.

– La prima parte è capace di interpretare una famiglia di algoritmi.

– La seconda è capace di immagazzinare i dati ai quali questi algoritmi si applicano o che da loro si ottengono.

Così, dal punto di vista dell’informatica un computer è la realizzazione fisica di una macchina di Turing.

In questa macchina i dati sono scritti su una memoria – l’hard disk – e processati da circuiti logici chiamati processori.

Questi processori sono la parte della macchina che è capace di compiere i passaggi logici, come estrarre i dati immagazzinati nella memoria,  interpretarli, eseguire le istruzioni ricevute.

 

In pratica, qualsiasi programma che fa funzionare un computer o che può essere fatto funzionare da un computer non è altro che un complesso di algoritmi.

Non è difficile comprendere come alla base di tutti questi processi c’è un problema, la velocità di calcolo.

Oggi, l’aumento importante delle capacità di calcolo dei processori ha permesso di poter far funzionare, su una macchina-ad-hoc, algoritmi sempre più complessi, vale a dire dipendenti da più variabili.

 

La rete, di contro, ha permesso di mettere insieme una moltitudine di enormi database che nutrono questi algoritmi.

 

Ci sono vari tipi di algoritmi.

I più popolari sono gli algoritmi di ottimizzazione che cercano la soluzione che minimizza o massimizza una funzione.  E gli algoritmi probabilistici,  molto diffusi grazie alla possibilità di trattare grandi masse di dati (i Big Data).

Big data è un termine adoperato per descrivere l’insieme delle tecnologie e delle metodologie di analisi di dati massivi.  Il termine indica la capacità di estrapolare, analizzare e mettere in relazione un’enorme mole di dati eterogenei, strutturati e non strutturati, per scoprire, portare alla luce i legami tra fenomeni diversi e prevedere quelli futuri.

 

Gli algoritmi probabilistici sono detti anche predittivi, in quanto sono strumenti capaci di prevedere la probabilità dell’insorgenza di un evento – come sono, per fare qualche esempio, le epidemie di influenza, il diffondersi di malattie infettive o, lo scoppio di crisi finanziarie.

I suggerimenti per gli acquisti che trovate sulla schermata di un computer (ti potrebbe interessare anche… oppure, sono spesso comprati insieme, ecc…) si basano sulla stessa logica algoritmica, essi analizzano quegli eventi come sono le visualizzazioni, i click o gli acquisti correlati a specifici individui.

C’è un problema etico che è ben espresso da questa storia vera.

Target – una società americana di vendite – fa affidamento sull’analisi dei profili di acquisto di venticinque prodotti al fine di assegnare a ciascun acquirente femmina un tasso chiamato previsione di gravidanza.  Questa profilazione stima la data del parto e invia dei coupon per l’acquisto scontato di prodotti correlati ai diversi stadi della gravidanza.

Ciò causò seri problemi di privacy finiti in tribunale allorché i coupon furono inviati a una famiglia la cui figlia – liceale – non aveva informato i propri genitori del suo stato.

 

Ritorniamo al tema degli algoritmi. Possiamo distinguere tre serie di passaggi articolati.

Quello dei dati in entrata – input.

Quello dell’algoritmo propriamente detto – elaborazione.

E quello dei dati in uscita – output.

Ricordiamo che un computer opera esclusivamente su dati digitali che esso stesso ha generato in maniera digitale oppure su dati che sono stati digitalizzati.

Si tratta di sequenze di bit, indicati con le cifre 0 (zero) 1 (uno) che corrispondono alla presenza o all’assenza di un determinato livello di tensione elettrica all’estremità dei transistor che compongono un computer.

 

Vediamo meglio un aspetto dei Big Data.

Come abbiamo accennato rappresentano un insieme di dati quantitativamente enorme, molto vario e in continua e rapida evoluzione.

Il concetto di Big Data nasce alla fine del secolo scorso in corrispondenza all’aumento esponenziale della capacità di trattamento e di salvataggio dei dati che rese disponibile grandi quantità di informazioni sotto forma digitale.

La sigla VVV, elaborata da una multinazionale di consulenze informatiche, è generalmente usata per distinguere le tre caratteristiche che distinguono i Big Data.

Vale a dire, Volume (la quantità di informazioni), Velocità (la velocità di acquisizione, rinnovamento e trattamento dei dati), Variety (la differenziazione qualitativa di questi dati).


Una curiosità.

VVV è stato il titolo di una rivista surrealista pubblicata a New York, di cui uscirono soli quattro numeri dal 1942 al 1944.

 

André Breton, rifugiatosi nel 1941 a New York per fuggire la guerra, tentò di mettere insieme un nuovo gruppo surrealista radunando altri artisti europei in esilio e vari artisti americani.

Le idee del nuovo gruppo surrealista trovarono una larga espressione nel progetto editoriale di VVV.

In quanto francese, per la legge statunitense Breton non poteva essere l’unico direttore di un periodico.  Pertanto assegnò il ruolo di condirettore al pittore David Hare, mentre nel comitato di redazione compaiono Marcel Duchamp e Max Ernst.

La rivista nacque sul modello del Minotaure, il più famoso dei periodici surrealisti.  Anche per VVV venne mantenuta la consuetudine di rendere speciali le copertine attraverso la commissione di opere destinate a questo solo scopo.

Su VVV Breton pubblicò, fra l’altro, i Prolégomènes à un troisième Manifeste du surréalisme ou non (“Prolegomeni ad un terzo Manifesto del surrealismo o meno”).


L’unità di misura di volume dei Big Data è il petabyte che rappresenta un milione di gigabyte.

Proviamo a valutare che cos’è un petabyte.

Una foto in alta definizione occupa cinque millesimi circa di un gigabyte quindi un petabyte può contenere 200 milioni di foto o 250mila pellicole cinematografiche masterizzate in dvd.

Il DVD, sigla di Digital Versatile Disc, originariamente Digital Video Disc, è un supporto di memoria di tipo disco ottico, in via di sparizione.

Un esempio di Big Data sono le informazioni collezionate in tempo reale dai social network o dai grandi mercati online o mediante le applicazioni che usiamo sui nostri telefoni.

Sono, come si può intuire, un’enorme massa di dati acquisiti velocemente e con varie tipologie.

Tra queste tipologie ricordiamo: Localizzazione, Sistema operativo, Plugin (cioè, il modulo aggiuntivo di un programma, utilizzato per aumentarne le funzioni), Preferenze del nostro navigatore, Pagine visitate e tempo passato su di esse, Foto e video selezionati, Contatti e-mail, Ricerche.

A questo va poi aggiunto tutto il contenuto testuale, audio, video e fotografico postato o condiviso sulla nostra bacheca.

Ci sono poi molti casi di raccolta dei dati utilizzati nel campo della sicurezza e del controllo sociale.

Gli algoritmi di riconoscimento facciale – sempre più numerosi nelle stazioni ferroviarie o negli aeroporti – per fare un esempio – si basano sulla capacità di stoccare e analizzare in tempi brevi flussi di dati provenienti da telecamere istallate in questi luoghi o da foto postate su un qualsiasi social network o sito web.

 

Tra le opportunità offerte dai Big Data ci sono il deep learning e gli algoritmi predittivi.

Il deep learning (apprendimento profondo) – su cui ritorneremo – è una forma di intelligenza artificiale costituito da algoritmi che consentono a una macchina di prendere decisioni, operando sulla possibilità di far convergere tecniche di calcolo – tecniche con un’alta probabilità di correttezza o di affidabilità.

Gli algoritmi predittivi, invece, sono algoritmi che permettono di stimare la probabilità di realizzazione per un determinato evento a partire dalle condizioni misurate in un dato momento.

Sono oggi molto usati nella prevenzione di molte specie di malattie a sviluppo lento.

Il cuore della predittività sta nella possibilità di correlare tra di loro eventi fisici di varia natura.

Per esempio, associati alle leggi della fisica questi algoritmi consentono con una precisione definita chirurgica di calcolare dove cadrà un missile, conoscendone la potenza, la quantità del propellente, l’alzo del carrello di lancio e il peso.

Abbiamo poi quello che si definisce un approccio statistico quando la correlazione non viene dedotta dalle leggi della fisica, ma astratta per inferenza da un insieme di dati.

 

(L’inferenza (in generale) è una deduzione intesa a provare o a sottolineare una conseguenza logica.

L’inferenza statistica (o statistica inferenziale) è il procedimento per cui si inducono le caratteristiche di una popolazione dall’osservazione di una parte di essa (detta “campione”), selezionata solitamente mediante un esperimento casuale (aleatorio).

 

In linea generale, più grande è l’insieme di dati più probabilità ci sono che le correlazioni osservate statisticamente riflettano la legge che regola il comportamento del fenomeno in questione.

In questo senso, la novità rappresentata dai Big Data consente di migliorare gli algoritmi predittivi, anche e grazie a metodi di deep learning, rendendo questi algoritmi sempre più performanti.

Tra i molti dubbi e problemi, sul piano meramente scientifico, che si possono avere sui paradigmi predittivi, quello che qui importa sottolineare è il problema etico perché l’analisi e lo sfruttamento dei Big Data è in mano a pochi, ovvero a grandi gruppi industriali e militari.

Moralmente qui siamo di fronte al problema del controllo delle inferenze compiute e di fatto sottratte all’analisi scientifica.

Oggi si può dire che i Big Data assomiglino a delle forme oracolari pseudo-scientifiche a cui è comodo affidarsi, evitando la ricerca e formulazione di una teoria scientifica.

O, meglio, invece di essere usati per formulare ipotesi e cercare verifiche sul campo, sono usati (soprattutto quelli commerciali) per convincere senza dimostrare, partendo dal presupposto che i dati parlano da sé, basta saperli interrogare e ascoltare.

 

Profilazione Digitale.

Premessa.

Il concetto di identità personale si riferisce all’insieme delle caratteristiche dell’individuo, ed è materia di autodeterminazione.  Vale a dire, essa è auto-costruita e deriva dal processo di identificazione con uno o più modelli proposti dall’ambiente socio-culturale e politico in cui l’individuo si trova a vivere.

L’identità digitale, invece, è una rappresentazione di un individuo.

Un’identità identificabile da coloro che creano e usano i dataset (cioè le collezioni di dati) in cui questa identità è memorizzata.

In sintesi, una persona digitale è la rappresentazione digitale di un individuo reale, una persona astratta che può essere connessa a questo individuo reale e comprende una quantità sufficiente di dati per essere usata in ambiti specifici, o come delega di questo individuo reale o a sua insaputa.
Roger Clarke, un esperto di cultura digitale australiano, ha definito due tipi di identità digitale: quella progettata e quella imposta.

La progettata è creata dallo stesso individuo, che la trasferisce ad altri per mezzo di dati (ad esempio: con la creazione di un Blog personale, di una pagina personale su un social network, eccetera.)
Quella imposta è quella proiettata sulla persona, in un certo senso, illuminata per mezzo dei dati collezionati da agenzie esterne quali sono le società commerciali o le agenzie governative (dati che hanno lo scopo, per esempio, di valutare il suo grado di solvibilità ai fini della concessione di mutui, valutare il suo stato di salute a fini assicurativi o creditizi, le sue preferenze musicali, ecc.)
In una conferenza a Roma di qualche anno fa, Roger Clarke – uno dei primi ricercatori a discutere di Persona Digitale – ha definito quattro categorie di persona digitale modellate sull’individuo reale come forme di un inconscio digitale:

– alla prima categoria troviamo una persona che non è a conoscenza degli archivi che conservano i suoi dati sensibili.

– alla seconda, una persona che è a conoscenza degli archivi dati, ma non può accedere ad essi.

– alla terza, una persona che è a conoscenza degli archivi e ne ha accesso ma non conosce i codici per decodificare le informazioni di tali archivi.

– all’ultima categoria troviamo una persona che nonostante abbia accesso ai suoi dati sa che ad essi sono state sottratte molte delle informazioni che la profilano senza conoscerne il motivo.

 

In quest’ottica il profiling è l’insieme di quelle tecniche che servono per disegnare il profilo di un utente in base al suo comportamento.

Questo modello di profiling deriva direttamente da quello in uso da tempo dalle forze dell’ordine e reso popolare dai film e dalle serie televisive.

Si tratta di una tecnica che ha l’obiettivo di portare alla luce dei pattern, cioè, degli schemi ricorrenti nel modo di agire di un indiziato.

L’obiettivo del profiling è di prevedere il momento del reato e intervenire per evitarlo.

Per analogia, come il profiling criminale identifica il comportamento di un delinquente, allo stesso modo il profiling digitale identifica il comportamento di un utilizzatore di servizi.

Ha rappresentato un grosso passo in avanti qualitativo rispetto al meccanismo della fidelizzazione (dall’inglese fidelity, fedeltà), perché si tratta di un monitoraggio che non riguarda solo i consumi correnti, ma è in grado di anticipare i desideri di consumo, così come il profiler criminale anticipa il momento e il modo del reato.

 

Il campo di studio del profiling digitale, applicato ai consumi, non riguarda solo l’area degli acquisti, ma l’insieme delle interazioni e dei sentimenti che un individuo sviluppa in un ambiente sociale predisposto per mezzo del web.

L’obiettivo è quello di tracciare un’area esplicativa dei legami sociali e, per conseguenza, dell’identità che si “co-costruisce” entrando in relazione con gl’altri.

Quest’area di studi oltre a essere complessa è delicata da valutare perché in genere – per motivi politici e culturali – siamo abituati a pensare che il tema del controllo sia di esclusivo appannaggio delle istituzioni – più o meno legittime – che detengono il potere e non una nuova prerogativa commerciale.

 

In genere, se un governo spia la popolazione o settori di essa si rende colpevole per l’opinione pubblica di un comportamento scandaloso e antidemocratico.

Di contro e fino ad oggi, invece, non c’è scandalo, né riprovazione morale se questo controllo è esercitato dalle multinazionali del digitale.

Da un punto di vista fenomenologico, va detto, il profiling è una delle tecniche più sofisticate per reificare un individuo, cioè renderlo simile a una cosa, in questo caso, una cosa misurabile e valutabile.

 

In genere non pensiamo mai che siamo tutti sottoposti alla profilazione e, questo, indipendentemente  dall’uso che facciamo dei servizi gratuiti in rete.

Come dicono i critici digitali a questo proposito:

SE È GRATIS VUOL DIRE CHE LA MERCE SEI TU.

Questo perché l’obiettivo dei servizi che ci offrono è il profitto e non certo quello di metterci in contatto con altri o condividere con noi le esperienze della vita.

 

La profilazione, dunque, è l’insieme delle tecniche che consentano di identificare e classificare gli utenti in base al loro comportamento.

Quello che viene raccolto e conservato non è come nelle indagini di mercato classiche una sorta di istantanea in un dato momento, ma è un flusso di dati in movimento che aumenta costantemente e si modifica in continuazione, realizzando una sorta di controllo continuo.

In sostanza ogni utente che è in rete sviluppa e acquisisce un’impronta identitaria unica e in perenne metamorfosi.

Il tracciamento di questa impronta avviene in vari modi e per mezzo delle applicazioni che ci mettono in contatto con i servizi.

Il principale è il browser, cioè il navigatore, con cui surfiamo nel Web.

(Browser: programma per navigare in Internet che inoltra la richiesta di un documento alla rete e ne consente la visualizzazione una volta arrivato.)

 

Il modo più conosciuto per tracciare un’impronta è il sistema dei cookie, che tutti conoscono perché per legge deve essere segnalato sul sito dove si sta navigando.

 

Va però aggiunto che questi cookie sono quasi sempre soggetti a domini esterni rispetto a quello su cui il cookie si trova.

Ma che cos’è un cookie?

È una stringa di codice, diversa per ciascuno, che ci viene assegnata ogni volta che siamo su un sito e al cui interno sono contenute le impostazioni dell’utente relative al sito Web visitato.

Quando si ritorna su questo sito i cookie impostati in precedenza vengono di nuovo inviati al sito.

A cosa servono?

Se sul sito di una compagnia aerea effettuiamo una ricerca con la frase: Voli per Londra o treni per Berlino, sul nostro browser viene istallato un cookie con questa richiesta (query).

Il termine query viene utilizzato per indicare l’interrogazione da parte di un utente di un database, strutturato.  L’analisi del risultato della query è oggetto di studio dell’algebra relazionale.

Poi, in seguito a questa richiesta, un software istallato sul sito consultato farà uso di tale informazione (Voli per Londra, treni per Berlino) per offrirvi della pubblicità legata alla ricerca, come hotel, noleggio auto, ristoranti centri di shopping, eccetera.

Questo perché il cookie istallato è un cookie di proliferazione.

 

In ogni modo ci sono sistemi di tracciamento anche più sofisticati come gli LSO (Local Shared Object) più conosciuti con il nome di flash cookie, e gli e-tag, una sorta di database nascosti dentro il browser e usati soprattutto dalle grandi compagnie come Google, Yahoo, Amazon e così via.

Il tag è una sequenza di caratteri con cui si marcano gli elementi di un file per successive elaborazioni.  (Da qui la sua definizione più popolare, di sigla apposta come firma dall’autore di un graffito).

Perché tutto questo ci riguarda?

Perché il nostro browser generalmente è farcito di software di cui non sospettiamo l’esistenza e che hanno lo scopo di tracciarci.  La pratica di ripulire il proprio browser è importante, ma non risolve il problema.

In linea di massima ogni volta che una tecnologia Web permette a un server di salvare qualche dato all’interno del browser questo può essere usato come sistema di tracciamento.

Ma oggi c’è anche una proliferazione di tipo attivo.

Quando utilizziamo Google Doc o Gmail condividiamo con il server tutte le informazioni sui contenuti, le condivisioni e le modalità d’uso che ne facciamo.

È un tracciamento di tipo attivo di cui abbiamo accettato le condizioni, vale a dire, quei “Termini del Servizio” che nessuno legge mai e che, in sostanza, ci comunicano che, per esempio, Google, con ciò che mettiamo a sua disposizione, si riserva di fare quello che vuole al fine di migliorare il servizio (sic).

 

Per concludere, dobbiamo PRENDERE ATTO che i servizi che ci vengono promessi come gratuiti non lo sono affatto.

LA MONETA DI SCAMBIO È RAPPRESENTATA DALLA NOSTRA IDENTITÀ – CHE SI COSTRUISCE ATTRAVERSO IL WEB – E DAL CONTENUTO DELLE NOSTRE INTERAZIONI CON GL’ALTRI.

Per interazione sociale intendiamo qui una relazione di tipo cooperativo svolta da due o più attori detti soggetti agenti, che orientano le loro azioni in riferimento ed in reazione al comportamento di altri attori.

Queste relazioni sono caratterizzate da una certa durata, intensità (cognitiva e emotiva) e ripetitività nel tempo.

Il termine trae origine dalla scuola sociale americana ed è in qualche modo l’equivalente di relazione sociale.  Vedi: Modelli di interazione / Erving Goffman – (introduzione di Pier Paolo Giglioli) – Bologna, Il Mulino, 1971. 485 p. (Contiene in trad. italiana: Interaction ritual.  Strategic interaction.)

***

Lemmi.

Tecnocrazia.

Premessa.  La teoria della tecnocrazia è una teoria moderna, ma la sua matrice può essere individuata nella dottrina classica del governo dei custodi.

L’idea della monopolizzazione delle decisioni collettive ad opera dei detentori di saperi specialistici o dotati di una qualche superiorità di tipo cognitivo costituisce un tema popolare nel pensiero occidentale.

Platone è all’origine di una influente tradizione ponendosi con il suo modello del governo dei custodi in opposizione a una concezione della politica ben esemplificata dal mito di Protagora, secondo cui la distribuzione di rispetto e giustizia, che insieme costituiscono la tecnica politica, deve, a differenza delle altre tecniche, andare a beneficio di tutti.

Diversamente da Protagora, che con quella tesi provvede a legittimare il nuovo ordine democratico di Atene, Platone è convinto che, nella misura in cui la politica è una tecnica, essa abbia come tutte le tecniche pochi ed esclusivi detentori.

 

L’idea di un governo dei custodi fondato sulla coniugazione di potere e sapere attraversa così l’intera esperienza politica dell’Occidente – e non solo nei termini di una proiezione utopica.

Dai consiglieri del principe e dai tecnici della ragion di Stato agli intellettuali delle università, intese come vivaio di scienze utili al governo, s’instaura, come ha scritto Michel Foucault, un nuovo rapporto “tra la politica come pratica e la politica come sapere”, da cui emerge la “possibilità di un sapere specificamente politico”.

Si fa strada così un modello tecnicistico, in cui lo Stato è machina machinarum, ideata dal pensiero filosofico e resa funzionante da una classe di specialisti.

Modello che fornirà la base su cui si svilupperanno, pur nel quadro di una reazione antipolitica, le moderne teorie tecnocratiche.

Il passaggio a queste teorie avverrà tuttavia solo nel momento in cui il progresso delle scienze e delle tecniche investirà la sfera economica della produzione e del consumo, rivoluzionando in profondità le modalità di esistenza e le aspettative di jouissance degli individui.
Il governo dei custodi è, di fatto, il governo di coloro che sanno.

Ma nel corso della storia questo ideale è variato a seconda dei modelli di sapere dominante (la dialettica di Platone, la geometria di Thomas Hobbes, la sociologia di Auguste Comte, la psicologia, come nel racconto utopico Walden two di B. Frederic Skinner), di diffusione del sapere, di organizzazione delle informazioni e di elaborazione dell’identità del gruppo che aspirava al monopolio del potere ideologico.

Fin dall’antichità è un modello di potere (e sapere) che tenta di neutralizzare il peso del passato, di addomesticare la tirannia della tradizione e al tempo stesso di ipotecare il futuro.

Ma è alle soglie dell’età moderna che l’utopia tecnocratica trova la sua prima formulazione nella New Atlantis di Francis Bacon, in cui è delineato l’ideale di una società interamente fondata sulla scienza e sulla tecnica, dai cui progressi dipende il livello del benessere collettivo.

Entro questa cornice trovano collocazione le diverse varianti di ‘tecnocrazia’, ‘sofocrazia’ e ‘ideocrazia’ che compongono l’immaginario utopico e ideologico della modernità.

Ma il quadro di riferimento resta, per quanto concerne la determinazione delle qualità specifiche dell’élite governante, platonico.

 

Quando Robert Dahl (un politologo americano) individua nella comprensione morale, nella virtù e nella conoscenza strumentale le componenti della competenza politica, possiamo senza difficoltà riconoscere in questo intreccio la connessione tra conoscenza, potere e arte tematizzata da Platone nella sua analisi del sapere politico.

Da sempre l’espressione ‘governo dei custodi’ è stata carica di ambivalenze.

Ancor più ciò si può dire nel nostro secolo, in cui l’espressione è tornata in uso e il concetto è stato discusso sia nella variante autoritaria, antagonistica rispetto alla forma democratica e allo Stato di diritto, del sistema precettorale o tutelare.

Sia nella variante più moderata, coniugabile con la democrazia liberale, che la vede sinonimo di “principio del governo meritocratico”.

Persino la più ristretta nozione platonica dei guardiani-guerrieri è riapparsa nel dibattito intorno a quelle decisioni sulle armi nucleari e la deterrenza che sfuggono al controllo democratico e tendono a essere monopolizzate dai tecnici della strategia.

Anzi, proprio da questa specifica questione ha preso le mosse Robert Dahl nel riproporre e discutere l’alternativa “democracy versus guardianship”.

In tempi più recenti si è richiamata invece la formula del governo dei custodi per definire, nelle democrazie contemporanee, l’anomalia di un (vero o presunto) governo dei giudici, in relazione all’espansionismo del potere giudiziario in generale e alla crescita delle prerogative delle corti costituzionali in particolare (nella loro funzione di custodi delle costituzioni).
Se la figura del custode o del guardiano evocava primariamente l’azione di un protettore armato o la decisione saggia di un sapiente qualificato da una superiorità etica, quella del tecnocrate ha le sue radici nel mondo della produzione e dell’economia, anche se di un’economia non confinata ai processi elementari dell’appropriazione, della produzione e dello scambio, ma potenziata da forme complesse di organizzazione che incorporano sapere.

In entrambi i casi non si tratta comunque di funzioni propriamente specialistiche all’interno di uno schema di divisione del lavoro, ma di una competenza che include un momento generale di sintesi.

Anche se la distanza tra il tecnocrate e il tecnico non è più quella che intercorreva tra il custode platonico e il detentore di tecniche creative, resta vero anche per il mondo moderno che fra i due tipi sociali sussiste una differenza di fondo: mentre il tecnico si qualifica come un esperto del particolare, il tecnocrate va definito (e si definisce) come un esperto del generale.


Riassumendo, la tecnocrazia è una ipotetica forma di governo in cui le decisioni politiche vengono prese da “tecnici”, cioè da esperti di materie tecnico-scientifiche o più in generale da studiosi di campi specifici.  Per definizione la tecnocrazia comporta sempre una delega tecnocratica (cioè, operativa).


Etimologicamente la parola tecnocrazia deriva dalle parole potere (krátos) e tecnica (techné).

L’idea di base che sta dietro questa ideologia è che la vita corrente deve essere gestita da esperti competenti nelle varie scienze e tecniche, considerati i soli in grado di proporre le soluzioni migliori.

Come dire l’economia agli economisti, la città agli urbanisti, la salute ai medici.

Ma il problema è: come si decide chi sono gli esperti di chiara fama, considerato che il più delle volte l’appartenenza a una categoria di esperti è determinata da gerarchie e meriti che nella cultura occidentale sono opachi e compromessi?

 

La caratteristica specifica della tecnocrazia digitale è quella di porsi e di agire come uno strumento di delega dei nostri desideri e di controllo delle nostre capacità cognitive.

La rete ci informa dei libri che vogliamo leggere, dei film che vogliamo vedere, della musica che vogliamo ascoltare.  Facebook ci garantisce la possibilità di rimanere “in contatto con le persone della nostra vita” – come recita la sua home-page.

Ci sono poi servizi che si occupano di trovarci un partner sessuale, altri ancora il ristorante dove vogliamo cenare o il viaggio che vogliamo fare.

Può apparire paradossale, ma questa delega tecnocratica è una limitazione delle nostre libertà se pensiamo alla libertà come un problema di scelte.

La tecnocrazia digitale ci blandisce con il miraggio di scelte illimitate, ma poi è essa stessa a scegliere per noi. In cambio di cosa?

In cambio della nostra identità, in cambio di tutti i particolari delle nostre relazioni sociali, dei nostri gusti, delle nostre preferenze.

 

La tecnocrazia digitale, in sostanza, è una forma politica che si presenta come apolitica.

Come il frutto della ricerca scientifica oggettiva e disinteressata.  Un tema che ci riporta all’annosa e per molti versi priva di senso discussione sulle tecnologie buone e cattive.

Ma perché la tecnologia digitale non può essere neutra?

Perché – volenti o nolenti – le macchine e gli algoritmi che le fanno girare riproducono le ideologie dei loro creatori.

Queste macchine sono costruite da individui mossi da interessi economici, politici, ideologici e le interazioni tra gli operatori e le macchine configurano relazioni di potere, un potere prodotto e gestito a scopi di dominio.

 

Una reazione diffusa di fronte alla tecnocrazia digitale è il luddismo digitale.

Questo luddismo ha vari aspetti.

Uno è quello di imputare alle macchine la responsabilità di aggravare certi rischi legati al loro sviluppo, rischi che non esistevano in passato.

In altri termini, quando gli strumenti tecnologici industriali crescono oltre una certa misura si ritiene che la soglia della loro inutilità cresce ed essi tendono a diventare nocivi.

È stata la posizione di Ivan Illich.  (Vienna 1926 – Brema 2002.  Uno scrittore, storico, pedagogista e filosofo austriaco. Personaggio di vasta cultura, poliglotta, per la sua vasta conoscenza di svariati idiomi, e storico).

A questo proposito va anche ricordata una posizione ancora più radicale, come quella di John  Zerzan (Salem, 1943) un anarchico americano della corrente primitivista.


John Zerzan ha scritto numerosi articoli e saggi di opposizione radicale ad ogni forma di civilizzazione,  individuando ciò che c’è da rifiutare nei concetti di agricoltura, linguaggio, pensiero simbolico.

Zerzan rifiuta l’oppressione, che ritiene intrinseca alla civilizzazione, e propone la riconquista di una libertà primordiale ispirata ad un modello di vita preistorico basato sulla caccia e la raccolta, caratterizzato da egualitarismo sociale e abbondanza di tempo libero, oltre che da un maggior benessere fisico e psichico.

I suoi libri più significativi sono: Elements of Refusal (1988), Future Primitive and Other Essays (1994), Against Civilization: A Reader (1998) e Running on Emptiness (2002).

Zerzan, in sostanza, individua nell’avvento della civiltà l’origine di ogni forma di potere, ciò che ha condotto alla domesticazione dell’uomo, degli animali, dell’ambiente.

Si tratta di una macchina sociale che ha introdotto il principio della proprietà, della divisione del lavoro, della legge.

Tale struttura si regge attraverso l’ausilio di alcuni artifici quali il tempo, il linguaggio, la scrittura, il numero, la religione (funzionali all’esigenza alla classe dominante di stabilire i confini delle proprietà, i ritmi di lavoro, la codificazione delle norme).


Ci sono poi i luddisti tecnofili.

Sono quelli che amano e detestano il digitale in uguale misura, se ne servono, ma non vogliono apprenderne il funzionamento.

Fanno il paio con gli entusiasti, con quelli che ritengono che il digitale può essere controllato per il bene di tutti delegandone la gestione a delle istituzioni o degli organismi transnazionali.

In linea generale osserviamo questo.

La tecnocrazia è in sé scientista e non accetta critiche.  Chi le contesta viene tacciato di oscurantismo, ingenuità e di paura del progresso.

Essa ha un solo grande obiettivo: il controllo.

 

Hacker.

L’hacker, in informatica, è un esperto di sistemi informatici e di sicurezza informatica.

In genere è considerato capace di introdursi in reti informatiche protette e di acquisire un’approfondita conoscenza del sistema sul quale interviene, per poi essere in grado di accedervi o adattarlo alle proprie esigenze.

L’hacking è l’insieme dei metodi, delle tecniche e delle operazioni volte a conoscere, accedere e modificare un sistema hardware o software.

Il termine, tuttavia, avendo accompagnato lo sviluppo delle tecnologie di elaborazione e comunicazione dell’informazione ha assunto diverse sfumature a seconda del periodo storico e dell’ambito di applicazione.

Sebbene venga usato principalmente in relazione all’informatica, l’hacking si riferisce più genericamente a ogni situazione in cui è necessario far uso di creatività e immaginazione nella soluzione di un problema.

Al suo nascere la cultura digitale ha fatto spesso ricorso all’aneddotica per spiegare certi suoi singolari punti di vista.

Uno di questi aneddoti definisce che cos’è un hacker.

Consideriamo una fontana con un bel rubinetto.

Le persone in genere sono interessate a ciò che fuoriesce dal rubinetto.

L’hacker, invece, si interessa a come funziona, sarà tentato di smontarlo, valuterà se può aumentare il suo flusso d’acqua, giocherà con l’acqua…

Cosa significa?

Che l’hacking è una questione di attitudine.

I suoi fan si divertono a studiare le macchine, a smontarle, a ricomporle e nel caso di macchine digitali, a scrivere codici per farle funzionare meglio, metterle in contatto, o come dichiarò un hacker a un giudice, nutrirle e dar loro una nuova vita.

 

Ci sono molti tipi di hacker.  I coder sono specialisti in linguaggi e danno vita ai programmi informatici.

I security hacker si occupano in genere delle strategie per bucare o aggirare le protezioni di un sistema.  Qualche volte lavorano per garantire e incrementare la sicurezza di grandi aziende, governi, istituzioni…

Gli hacker dell’hardware sono esperti nel costruire macchine saldando, tagliando, assemblando, riparando computer, radio, stereo…

I geek (disadattati) che noi in genere chiamiamo smanettoni, anche se non hanno grandi competenze nella scrittura dei codici, sono capaci di muoversi nei mondi digitali, e usare strumenti come l’ IRC (Internet Relay Chat).

L’Internet Relay Chat (IRC) è un protocollo di messaggeria istantanea su Internet.

Consente, sia la comunicazione diretta fra due utenti, che il dialogo contemporaneo di gruppi di persone raggruppati in stanze di discussione, chiamate canali.


La chat è una forma di comunicazione online durante la quale un utente intrattiene una conversazione con uno o più utenti, in tempo reale e in maniera sincrona, attraverso lo scambio di messaggi testuali o stabilendo una connessione audio/video con essi.

La chat nasce come forma di comunicazione testuale supportata da tecnologia IRC (Internet Relay Chat) che consente la comunicazione sia uno a uno, sia uno a molti.

Questa ultima forma avviene in stanze di discussione o canali (channel), a cui ogni utente accede servendosi di un nickname e conservando quindi l’anonimato. I canali possono essere identificati da un soggetto di discussione specifico, oppure essere semplicemente finalizzati all’incontro con persone sconosciute.  L’ambiente virtuale nel quale avviene la conversazione si definisce chatroom.

Alle chat basate su tecnologia IRC si sono nel tempo aggiunte le chat basate su altre tecnologie ospitate da server autonomi, definite web chat e le chat basate sui servizi di messaggistica istantanea.

Tali piattaforme – come MSN Messenger, Google Talk, Skype – integrano funzionalità di posta elettronica, trasmissione dati, interazione audio-video con l’interlocutore e consentono di arricchire con le emoticon il linguaggio puramente testuale tipico di IRC.


Identità digitale.

L’identità digitale è, di fatto, la base dei profitti del web 2.0.

(Il termine, apparso nel 2005, indica la seconda fase di sviluppo e diffusione di Internet, caratterizzata da un forte incremento dell’interazione tra sito e utente.

Vale a dire: (uno) Maggiore partecipazione dei fruitori, che spesso diventano anche autori (blog, chat, forum, wiki).  (due) Più efficiente condivisione delle informazioni, che possono essere più facilmente recuperate e scambiate con strumenti peer to peer o con sistemi di diffusione di contenuti multimediali come Youtube.  (tre) Sviluppo e affermazione dei social network.)

 

Possiamo dire che l’architettura del web 2.0 ha avuto come obiettivo principale quello di pensare l’identità degli utenti.

Come abbiamo già visto, la raccolta delle informazioni sulle identità, attraverso le tecniche del profiling, costituisce ciò su cui si fondano i profitti delle società di servizi gratuiti online.

Come abbiamo già detto, il web 2.0 è gratuito, ma se il servizio è gratuito allora la merce sei tu.

 

Come si fa a trasformare un utente in merce?

Con la reificazione, un concetto che sotto un’altra forma costituisce uno degli argomenti della teoria critica della società elaborata nel secolo scorso soprattutto dalla Scuola di Francoforte.

Occorre cioè rendere l’utente un oggetto di studio misurabile.

Creare di esso un modello semplificato sul quale poter compiere elaborazioni come si fa con un insieme di dati.

L’aspetto di questo problema che non va sottovalutato è questo.

L’identità – come è mostrato dalle scienze sociali – è un concetto complesso, costituisce il frutto delle relazioni in cui viviamo.  Come si fa a renderla misurabile?

Con la profilazione, vale a dire con quella tecnica che permette di identificare i singoli utenti e catalogarli in base al loro comportamento.

Ecco il trucco: l’utente viene reificato (messo a nudo) attraverso il suo comportamento.

 

Analizzando la nostra condotta sono registrate le nostre azioni il cui significato è calcolabile attraverso la costruzioni di parametri.

In altri termini, sul web commerciale noi siamo quello che facciamo.

Dal più piccolo movimento del mouse fino al tempo che passiamo senza far nulla sulla schermata di una pagina web.

Va anche rilevato che nei panottici digitali del web il credito e la visibilità sono direttamente proporzionali a quanto noi riversiamo sui framework, la piattaforma che funge da strato intermedio tra un sistema operativo e il software che lo utilizza.

Più il nostro account è raffinato, più ci personalizziamo, maggiore sarà il dettaglio della nostra immagine profilata sui data center delle aziende che conservano i nostri dati.

 

(L’account è il complesso dei dati identificativi di un utente.  Quei dati che gli consentono l’accesso a un servizio telematico.  L’account di posta elettronica, in particolare, è il nome e la parola d’accesso per poter usufruire del servizio di posta).

 

Esistono da questo punto di vista due copie della nostra identità.

Una è quella che vediamo sullo schermo del nostro computer, che aggiorniamo e attraverso la quale ci rapportiamo con gli altri.  È, di fatto, l’identità con la quale ci presentiamo nell’infosfera.

L’altra è quella che sta sul server, è molto più estesa perché conserva in memoria ogni nostro dettaglio a partire dalle interazioni, dalle correzioni e dalle osservazioni passive che abbiamo svolto.

 

Panottico digitale.

Panottico (un’espressione che deriva dal greco) indica la capacità di vedere tutto (pan + optikon).  L’uso di questa espressione deriva dall’architettura.

Lo spazio panottico è lo spazio architettonico pensato in modo da controllare in modo totale tutto ciò che è posto al suo interno senza essere visti.

Michel Foucault – parlando delle sue tesi sulla società disciplinare nel libro Sorvegliare e punire – analizza l’architettura panottica che Jeremy Bentham aveva immaginato sul finire del XVIII secolo come modello di carcere ideale.

È un’idea di reclusione che suppone la possibilità di manipolare il comportamento delle persone senza un intervento diretto, ma solo sottoponendo gli individui a un regime di visibilità costante.

Si tratta, in breve, di un’idea di architettura che ha l’obiettivo di fabbricare individui obbedienti.

Questa idea fornisce la formula per una generalizzazione che parte dal carcere e arriva alle altre istituzioni disciplinari come sono la scuola, l’esercito, l’ospedale, la fabbrica, l’ufficio…

Se dovessimo indicare quale tecnologia oggi rappresenta e sviluppa le caratteristiche della disciplina panottica non potremmo non dire il web 2.0.

Il web dei servizi gratuiti che si basa sul controllo e la manipolazione degli utenti.

 

Va aggiunto che come media sociale si tratta di un luogo in cui entriamo senza esservi costretti e senza l’obbligo di consumare.

Questo luogo ha la stessa configurazione di un panottico:

–          il potere che lo muove è inverificabile e sempre sul chi vive;

–          gli spazi sono ridotti al minimo e uguali per tutti;

–          i movimenti possibili sono rigidamente prestabiliti.

Il panottico digitale è in quest’ottica la continuità del panottico disciplinare, ma sostituisce l’obbedienza con la performance.

In questo spazio paraideale in cui non esistono più gl’altri della tradizione sociale – gli stranieri, gli anormali, i devianti, gli abietti – perché sono stati inglobati in categorie compatibili come sono gli amici, i followers, le persone della tua vita.

È una grande rappresentazione interconnessa senza distinzioni di razza, reddito, classe, età, orientamento sessuale.

È un unico grande frame.

Un’unica matrice per operazioni la cui semplicità è, allo stesso tempo, perfetta e sospetta, che da una sensazione di egualitarismo e democrazia.

La vera differenza tra il panottico disciplinare e quello digitale sta nel piacere.

Il piacere di una comunità operosa, dove il singolo non è prigioniero, ma è stimolato a esprimere la propria diversità.

Come ha osservato Foucault la quantificazione numerica crea piacere.  Il consumo di questo piacere reso in senso sociale crea un reddito psichico che ci fa sentire più ricchi e ottimisti.

 

Quantified Self.

È un movimento nato in rete per incorporare la tecnologia nell’acquisizione di dati relativi a ogni aspetto della vita corrente.

Il motto di questo movimento è: self knowledge through numbers.

Nata nel 2007 su iniziativa della rivista Wired la pratica del lifelogging (la pratica di registrare le immagini di una vita in senso biologico) grazie alla diffusione di dispositivi bio-metrici connessi alla rete globale ha consentito un balzo in avanti del monitoraggio delle attività biologiche.


In principio fu il blog.

Ma adesso, dopo che i social network come Facebook e Twitter hanno elevato il “web-log”, ossia il “diario online”(questo il significato del termine) a fenomeno universale, è arrivato il momento del lifelog: il diario della propria vita per immagini da postare tutto intero su internet.

Una nuova microvideocamera digitale che si può attaccare ai vestiti, in grado di effettuare automaticamente due foto al minuto, permette di mettere in rete tutto quello che facciamo 24 ore al giorno.

Prodotta dalla Memoto, una start-up americana, crea – se uno la “indossa” per più o meno dodici ore al giorno (ovvero se la si tiene sempre accesa, tranne quando si dorme) – quattro gigabyte di nuovo materiale ogni 24 ore.

La  mini macchina fotografica scatta 10 mila immagini alla settimana, 40 mila al mese, mezzo milione all’anno.

Volendo, si può fare in questo modo la “cronaca fotografica” di una vita intera, due foto al minuto dalla culla alla tomba, pari all’incirca a 40 milioni di fotografie: mentre mangiamo, studiamo, lavoriamo, chiacchieriamo, giochiamo, facciamo l’amore.

Sarà il “lifelogging”, si è chiesta la Bbc illustrando il nuovo fenomeno, la prossima mania del web?

Per gli ottimisti, come Martin Kallstrom, fondatore e presidente della Memoto, significa che non avremo più bisogno della memoria cerebrale per ricordare la nostra esistenza: basterà scaricare su internet e salvare l’archivio digitale di parole, suoni e immagini che scorre come un doppione, come una “second life”, accanto alla nostra vita reale, di cui è lo specchio fedele.

Per i pessimisti, tuttavia, questa “information overload”, questo carico eccessivo di informazioni digitali, può diventare una minaccia sociale, perché ogni parvenza di privacy va in frantumi nel momento in cui viene condiviso con altri utenti sul web.

In altri termini, può funzionare una società in cui, perlomeno teoricamente, tutti sanno tutto di tutti (o almeno possono saperlo) con un semplice clic del mouse o semplicemente premendo i polpastrelli su uno schermo?

Una cosa è certa: le nuove frontiere della comunicazione digitale si spingono sempre più avanti, sempre più  in fretta.

La Memoto ha prodotto il congegno temporaneamente più piccolo, ma non è certo l’unica azienda dell’IT, cioè dell’information technology, a operare nel campo del lifelogging.

La Microsfot  ha creato una minivideocamera chiamata SenseCam che scatta automaticamente una foto ogni 30 secondi in maniera analoga.

Google Glass e Twitter offrono strumenti per filmare e postare in modo simile ogni attimo della nostra giornata.

“L’osservazione di massa sta diventando una tendenza globale”, osserva il professore Henry Jenkins, docente di studi sui nuovi media alla University of Southern California. “Viviamo in una cultura più esibizionistica ma al tempo stesso ci sono persone a disagio davanti a tutta questa mole di informazioni”.

Il timore è quello che il Grande Fratello immaginato da George Orwell nel suo romanzo futuristico “1984” non sia più un occhio che vigilia dal di sopra sull’esistenza umana, ma un minuscolo gadget che ciascuno di noi porterà volontariamente all’occhiello.

Tuttavia vanno considerati anche gli aspetti positivi: le immagini digitali riprese con i telefonini da centinaia o migliaia di spettatori hanno aiutato la polizia a individuare rapidamente gli autori dell’attentato all’arrivo della maratona di Boston.

È un fenomeno che gli esperti chiamano “sousveillance”, il contrario di surveillance (sorveglianza).  Invece di un governo che ci guarda dall’alto, ci sono gli individui che guardano dal basso, magari per mettere su internet il lifeblog della propria vita.

(Tratto da La Repubblica, aprile 2013).


Ogni aspetto vitale è definito in termini di input, stati o condizioni, performance, quantità di cibo consumato, qualità dell’aria respirata, umore, eccitazione, eccetera.

I sensori si possono indossare e sono in grado di monitorare l’attività fisico-chimica dell’organismo, sequenziare il DNA e le cellule microbiche che abitano il corpo.

Il desiderio e la ricerca della verità del sé – che ha la sua culla nell’insegnamento delfico GNOTHI SEAUTON (conosci te stesso) si sta trasformando in uno strumento di auto-addestramento.

Misurare le manifestazioni fisiologiche del proprio corpo con gli strumenti di monitoraggio digitali, tenere una traccia costante del proprio corpo organico serve solo al confronto profilato.

 

Società della prestazione.

È una società nella quale si misura, si quantifica e si restituisce una valutazione di ogni azione compiuta e senza soluzione di continuità con l’obiettivo di aumentare il livello delle prestazioni.

Il controllo delle prestazioni avviene o attraverso sistemi di misurazione automatici o attraverso altri utenti che provvedono a valutare la performance con i loro contributi.

In sintesi la società attuale esige dagli individui un livello di prestazioni in costante crescita.

Non solo dobbiamo avere un reddito adeguato, ma anche una forma fisica ottimale.

Siamo costantemente spinti a migliorare la nostra salute, a creare nuove opportunità di amicizia, a frequentarci.

Con le debite proporzioni le stesse cose sono richieste alle nazioni.

Devono mostrarsi in continua crescita, esibire uno sviluppo economico senza flessioni, sapersi battere con successo sui mercati finanziari.

Questa affermazione di una società della prestazione è stata resa possibile dal costante miglioramento dei sistemi di raccolta e misurazione dei dati.

In questa società sfumano sempre più le distinzioni fra digitale, analogico, online, offline, umano, meccanico.

Sappiamo anche che in questa società il nostro cercare la soluzione giusta modifica la soluzione come cercare l’offerta giusta modifica l’offerta stessa.

 

C’è però un altro aspetto da considerare.

È la sostituzione, di fatto, dei vecchi mediatori dell’informazione – editoria, radio, tv, cinema – con Google, Amazon, Facebook, Apple, Microsoft.

Questa sostituzione aumenta in modo esponenziale l’enorme asimmetria di interazione tra individui e le grandi corporazioni transnazionali.

Il risultato di queste deleghe alle organizzazioni corporative (da parte di settori sempre più ampi della società) è che tutte le informazioni fornite dagli individui in maniera più o meno volontaria vengono registrate e immagazzinate per diventare una parte importante dei Big Data.

In questa prospettiva le cosiddette nuvole di computer dove si condensano i servizi sociali sono in realtà distese di macchine protette da guardie armate.

 

Proviamo a riflettere.

Il costo delle nuvole è notevole come sono costosi i servizi offerti nel web2.0, così anche se lo stoccaggio, il recupero e l’aggiornamento sembrano gratuiti, di fatto non lo sono.

Il successo di questa tecnologie sta nel fatto che si prendono cura della nostra identità, o meglio, della nostra identità digitale.

Queste tecnologie ci conoscono meglio di quanto noi non conosciamo noi stessi e sanno suggerirci con grande precisione i libri da leggere, i film da vedere, i luoghi da visitare, i modelli di vacanza, i ristoranti adatti ai nostri gusti.

Un paradosso significativo, che nessuno affronta, sta nel fatto che le pratiche di profilazione sono antitetiche ai principi della privacy, oltre che opache.

Va aggiunto che i sistemi tecnosociali sono co-evolutivi, nonostante la loro frammentazione verso il basso – com’è quella che produce la lingua o le abitudini legate alla tradizione – e la direzione verso la quale muovono è una sola: l’aumento delle prestazioni dell’utente che controllano.

Questa è la ragione per la quale siamo costantemente chiamati a dichiarare quello che vogliamo e questo vuol dire che dobbiamo adattarci all’ideologia della trasparenza.

 

La profilazione viene in genere accettata come inevitabile.  Ma c’è di più.

I processi decisionali degli individui sono assistiti, guidati, fusi con il dominio degli algoritmi.  Cosa significa?

Che singoli individui e gruppi delegano a queste procedure la creazione di collegamenti tra le persone e le cose del mondo.

L’Internet of Things, l’internet delle cose rappresenta oggi la nuova frontiera di una socialità reificata.

Il frigorifero può fare la spesa da solo perché conosce i gusti dei suoi proprietari, verifica che un certo prodotto consumato regolarmente sta finendo e può collegarsi con i fornitori.

Il nostro smartphone sa come guidarci alla scoperta di una città che non conosciamo,  come suggerirci locali o attrazioni.

Che cosa significa?

Che ci muoviamo in un mondo di significati grazie a relazioni costruite per noi e gestite da algoritmi.  Algoritmi in mano a privati sconosciuti e sottratti a dei controlli democratici, cioè accettati e condivisi.

Tutto questo non significa rimpiangere un’utopica armonia e non significa certo ignorare che la storia dell’uomo è anche la storia della tecnica e dell’invenzione di linguaggi.

Da un punto di vista fenomenologico storia è sinonimo di età dell’informazione.  Ne consegue che la storia, di fatto, inizia con le pitture del neolitico e prosegue con l’invenzione della scrittura in Mesopotamia.  Ma è solo di recente che la vita sociale e il progresso hanno cominciato a dipendere dalla gestione del ciclo di vita dell’informazione.

Vuol dire, al contrario, mettere in luce che la società delle prestazioni si basa su sistemi di condizionamento molto efficaci, ma di cui ignoriamo le conseguenze.

Paradossalmente, invece di punire le infrazioni alle regole, si premiano le prestazioni e il conformismo.

Si accettano sistemi che si presentano come giochi, classifiche, performance.

 

Da un punto di vista psicologico le persone tendono sempre più a comportarsi come macchine, vale a dire, a reagire in maniera irriflessa e automatica.

Di contro i  socialbot che simulano gli utenti dei social network sono sempre più indistinguibili dagli umani.


Il bot (abbreviazione di robot) in terminologia informatica è un programma che accede alla rete attraverso lo stesso tipo di canali utilizzati dagli utenti umani (per esempio, che accede alle pagine Web, invia messaggi in una chat, si muove nei videogiochi, e così via).

I social bot sono dei bot (cioè, qualsiasi software in grado di automatizzare delle azioni normalmente compiute da utenti umani) che vengono programmati per agire sui social network.

Ne esistono molti tipi che è possibile raggruppare in tre macro categorie in base alla funzione specifica per cui sono stati creati:

Spambots (quelli che spammano contenuti vari).

Paybots (pagati per portare traffico, spesso copiano tweet aggiungendo una short-URL che non c’entra con il contenuto e rimanda al sito pagante).

Influence bots (influenzano le conversazioni relative a un determinato argomento, gonfiano campagne marketing o hashtag per motivi che possono andare dalla semplice promozione alla propaganda politica).


Per le scienze sociali la “delega tecnocratica” favorisce l’emergere di pseudo-soggettività e di identità eteronomiche, cioè, che ci vengono imposte e che risultano superficiali e semplificate.

Va anche osservato che gli occhi sono gli unici organi di senso direttamente collegati al cervello e che la plasticità celebrale è continuamente stimolata dal visuale.

In questo modo il cervello si modifica, con la conseguenza che le persone imparano e sentono in maniera diversa.

Ciò non dipende dall’età anagrafica – l’espressione di nativi digitali è solo una formula efficace a sottolineare le nuove forme di apprendimento tecnologico delle giovani generazioni – ma dall’utilizzo massiccio della memoria procedurale nell’interazione con i new-media.

Più semplicemente dalle ripetizioni procedurali interattive pensate da altri – sconosciuti – per scopi precisi – profilazione e profitto – che assumono la forma di ritualità ossessive.

 

Uno degli effetti più vistosi di questo ordine di cose è l’alterazione della coerenza narrativa che finisce per compromettere l’autonomia degli individui.

Come dicono i critici, si tratta di imparare a gestire le sirene dell’automatizzazione per evitare di essere mercificati.

 

Comunità e condivisione.

Comunità è una delle espressioni più ricorrenti della rete.  Tutto ciò che si rivolge al singolo ha una community di riferimento.  È una sorta di a-priori che garantisce la nostra collocazione sociale.

Va però notato che la parola inglese community è ambigua e non ha nessun riferimento con il sociale o la socialità.  Semplicemente indica una comunità di consumatori.

 

L’analogia con la comunità sociale deriva dal fatto che l’architettura digitale imita lo spazio pubblico come se fosse la piazza di una città.

In breve, l’obiettivo dei media sociali è quello di raccogliere informazioni per disegnare un profilo identitario degli utenti il più realistico possibile e siccome questa identità si costruisce in relazione con gl’altri – l’uomo è per definizione un animale sociale – è essenziale che il soggetto sia inserito in un contesto che faciliti la comunicazione reciproca.

 

Chiamiamo questo spazio così costruito una community.

L’obiettivo di una community è la creazione di una comfort zone che faccia sentire l’utente un privilegiato.  Questo però non deve farci dimenticare che le comunità mediatiche sono più simili a comunità di sudditi che a comunità di cittadini

La community si lega a un altro tema.

In informatica condividere significa mettere a disposizione, da parte di chi ne ha la competenza, un’opera o un artefatto digitale da lui creato.

La condivisione nasce negli anni Settanta, ma si diffonde velocemente quando vengono commercializzati i primi personal computer.  È tanto popolare da diventare una sorta di movimento politico, poi con il free software diviene una sorta di economia del dono.

Da qui il passaggio commerciale all’open source per arrivare all’ultima metamorfosi, quella di una sharing economy.

Dunque, alla lettera condividere significa mettere in comune un artefatto.

Quando “condividiamo” un file su una piattaforma stiamo solo spostando una cosa da un posto a un altro.

Un prodotto che ha fatto la storia della condivisione in rete è il sistema operativo Unix – l’ispiratore di Linux – nato alla fine degli anni ’70 nei laboratori della Bell.

Siccome alla AT&T  (proprietaria della Bell) fu proibito di entrare nel settore dell’informatica Unix venne venduto a un prezzo simbolico alle università le quali si ritrovarono ad avere una piattaforma comune completa di codice sorgente.

Per queste ragioni e in modo spontaneo si creo una rete di collaborazioni attorno al codice di questo sistema operativo coordinata dall’Università di Berkeley e questo può essere considerato un primo grande momento di condivisione.

Ma poi tutto finì e furono impedite anche le pratiche del patch.

È la toppa, ovvero una modifica effettuata al codice per farlo funzionare meglio.  Patchare un programma significa questo.

 

Digital labour.

Labour qui va inteso come fatica, come lavoro contrapposto a capitale, dunque lavoro nel senso di sfruttamento più che di impiego.

Il digital labour è un’espressione che risale ai primi anni di questo secolo, non va confusa con il digital work che si riferisce ai lavoratori del settore informatico.  È una forma di lavoro ambigua e opaca, scovarla consente di denunciare forme di sfruttamento che non sono evidenti.

Di essa non esiste una definizione unanimemente accettata.

Nel caso del lavoro uberizzato i profitti della piattaforma Uber – ma anche i servizi di recapito di cibo a domicilio o di AirBnB – non coincidono con il plus valore derivato dalla differenza tra capitale investito e profitto ottenuto.

 

Uberizzazione. Con questa espressione si intende la trasformazione di servizi e prestazioni lavorative continuativi, propri dell’economia tradizionale, in attività svolte soltanto su richiesta del consumatore o cliente.  Una trasformazione del lavoro sul modello dell’attività economica caratteristico della multinazionale Uber.

Airbnb è un portale online che mette in contatto persone in cerca di un alloggio o di una camera per brevi periodi, con persone che dispongono di uno spazio extra da affittare, generalmente privati.  Il sito fu aperto nell’ottobre del 2007.

 

La questione del digital labour si fa ancora più complicata con i media sociali.

Apparentemente il loro uso è un’attività di svago, non a caso a questi media si connettono molti utenti (più o meno discretamente) durante l’orario di lavoro retribuito.

Per comprendere la questione occorre partire dal concetto di “merce-audience” (audience commodity) elaborato dal sociologo canadese Dallas Walzer Smythe alla fine degli anni ’70 a proposito della televisione e della radio.  Smythe è stato un esperto di economia politica della comunicazione.  La misurazione dell’audience in questo contesto è cruciale perché è il cuore stesso del modello commerciale di questi due media.

Il consumatore può divertirsi a guardare gratuitamente un film perché il suo tempo di attenzione costituisce una parte della merce venduta.

Questo comporta il fatto che occorre saper scegliere cosa diffondere in rete per ottenere la massima attenzione possibile dal maggior numero di spettatori.

 

Secondo Smythe il tempo passato guardando la televisione è, nel mondo occidentale, qualcosa di assimilabile al lavoro perché i telespettatori – loro malgrado – svolgono compiti essenziali di marketing per i produttori di beni di consumo.

A maggior ragione in una società digitale il soggetto – una volta effettuato il login – diventa un produttore e un contributore.

Guidato dall’interfaccia l’utente contribuisce, attraverso la proliferazione a cui si presta, con un messaggio, un commento, una foto, ma soprattutto  con il suo tempo di attenzione, a modellare in maniera sempre più precisa la merce venduta dagli inserzionisti.

Sul tema del digital labour rinviamo ai lavori di Tiziana Terranova, ricercatrice e docente presso l’Università degli Studi di Napoli dove insegna Sociologia delle comunicazioni, Studi culturali e postcoloniali e Teorie culturali inglesi e nuovi media.

La Terranova si occupa anche di sottoculture tecnologiche, di cyberpunk, di newsgroups e di cultura tecno californiana.

Aggiungiamo che Tiziana Terranova vede nello spazio informatico non tanto un territorio istituzionale da conquistare (come la televisione all’epoca della lottizzazione) quanto un ambiente dinamico con cui attivamente confrontarsi.

Sono concetti sviluppati nel volume Culture Network.

 

******

Appunti di cultura digitale.

Intorno alla metà del ‘700 in molte città europee si cominciò, strada dopo strada, a numerare le abitazioni in ordine crescente, erano nati i numeri civici.

Più che per problemi postali o dei singoli cittadini questo provvedimento veniva incontro alle richieste del fisco e delle forze dell’ordine per mappare, come si direbbe oggi, rintracciare e identificare facilmente le persone.

Ci furono, soprattutto nella mitteleuropea, molte proteste di cittadini contrari a questa misura che in alcune circostanze era anche discriminatoria, come nel caso degli ebrei di Boemia, obbligati a usare per la numerazione delle case i numeri romani anziché quelli arabi.

È facile immaginare i mille sotterfugi che furono inventati, come rompere la targa con il numero, metterla capovolta, così che il sei diventa nove, imbrattarla di vernice o di fango, eccetera.

A Parigi fu Napoleone che introdusse i numeri civici nel 1805.

Walter Benjamin nel suo Parigi, capitale del diciannovesimo secolo, racconta che nei quartieri proletari questa misura fu subito percepita come repressiva e che gli artigiani – con in testa quelli del fouburg Saint-Antoine – si rifiutavano di usare il numero della loro abitazione come indirizzo.

Charles Baudelaire – il poeta de I Fiori del male – definì questa numerazione come un’intrusione criminale nella vita quotidiana dei cittadini, possiamo aggiungere non senza un qualche interesse, considerato che era perennemente assediato dai creditori che volevano essere pagati e che lui evitava cambiando spesso il suo indirizzo.

L’analisi di Benjamin, però, è più complessa.

Per questo grande saggista europeo anche l’invenzione della fotografia è un punto di svolta nello sviluppo del controllo amministrativo e identificativo che dovrebbe essere affrontato in modo specifico.

 

Queste osservazioni sulla nascita della numerazione stradale ci mostrano l’enorme distanza che  separa quei giorni dall’epoca nella quale viviamo, caratterizzata dalle identità digitalizzate e  geolocalizzate.

Possiamo dire che mai come oggi, nella storia dell’umanità, si è disposto di una quantità così enorme di informazioni immagazzinate su i fenomeni e i comportamenti sociali, che confluiscono nell’area dei Bigdata.

Da almeno una generazione, con piccole quantità di dati, algoritmi e macchine di analisi, siamo in grado di estrapolare informazioni mirate, ma i Bigdata hanno reso obsoleto questi metodi mettendoci nella condizione – mai avuta prima – di possedere una quantità di dati maggiore di quella che i mezzi più accessibili ci permettono di gestire.

Vediamo qualche grandezza.

Nel 2000 – l’anno di nascita dei nativi digitali – le informazioni registrate erano per il 25 per cento supportate da un formato digitale e per 75 per cento contenute su dispositivi analogici (carta, pellicola, nastri magnetici, ecc…)

Nel 2013 le informazioni digitalizzate erano stimate intorno ai 1200 exabyte, vale a dire erano il 98 per cento, mentre quelle analogiche si erano ridotte al 2 per cento.

La mole delle informazioni digitalizzate è tale che se le stampassimo su carta coprirebbero una superficie grande come cinquanta Stati Uniti.

A parte il volume delle informazioni c’è da considerare che questi dati fanno capo a pochissimi soggetti, sono concentrati in pochissime mani.

Cosa vuol dire?  Che Facebook – per fare un esempio – ha collezionato il più grande insieme di dati mai assemblati sul comportamento sociale delle persone.

CHE, con molta probabilità, ALCUNE DELLE NOSTRE INFORMAZIONI PERSONALI NE FANNO PARTE.

 

La caratteristica di questi dati – oltre alla loro quantità – sta nel fatto che essi provengono da fonti diverse e sono “estratti” con metodi diversi, in questo modo costituiscono un dataset complesso e allo stesso tempo destrutturabile, che richiede, per essere sfruttato, elevate capacità di calcolo e di efficienza algoritmica.

Va aggiunto che i dati non provengono solo dagli addetti ai lavori, ma anche alle azioni quotidiane di milioni di utenti digitali che non ne sono consapevoli o non se ne rendono conto.

Tutto questo va considerato tenendo presente il carattere pervasivo (nel senso che tende a diffondersi ovunque) delle nuove tecnologie di cui non siamo, per ora, capaci di immaginare gli scenari.

Non per caso molti sociologi parlano di una “dittatura planetaria degli algoritmi” che nella sostanza favorisce le disparità economiche e i soprusi sociali.

La polizia di Los Angeles, per esempio, da qualche tempo a questa parte sta implementando un programma chiamato Predpol che grazie all’analisi dei dati dovrebbe riuscire a prevedere i crimini.

Per ora i risultati non sono stati soddisfacenti e spesso sono stati distorti dai pregiudizi razziali che hanno accompagnato la raccolta dei dati, ma torneremo sull’importante tema dei bias.

 

Implementare, dall’inglese (to) implement, a sua volta del lat. implēre “condurre a termine”, si usa quando si rende eseguibile un programma attraverso la formalizzazione dell’algoritmo risolutivo.

 

La digitalizzazione (e quindi l’automazione dei processi, così come la ratificazione delle esistenze), richiede capitali enormi tale da renderla un’attività altamente selettiva e qualificata, ma il danno più grave la digitalizzazione lo produce a livello della precarizzazione del lavoro cultuale e cognitivo individuale.

In altri termini la digitalizzazione rende sempre più simbiotico il rapporto tra mente e macchina e accentua l’importanza del lavoro di gruppo eterodiretto.

Ma c’è di più.

La data e sentimental analysis mostra come oggi l’estrazione dei dati che determinano i flussi è un lavoro complesso e molto lungo che produce un plusvalore (Nella terminologia marxiana, la differenza tra il valore del prodotto del lavoro e la remunerazione sufficiente al mantenimento dei lavoratori, della quale, in regime capitalistico, si appropriano gli imprenditori) non solo a partire dal singolo individuo, ma anche dal valore aggiunto di milioni di corpi e di menti messe in relazione.

Ricordiamolo:

SE NON PAGHI, IL PRODOTTO SEI TU!

Facebook e Google sono gratis, ma solo per il fatto che a lavorarci siamo anche noi quando li usiamo.

È una sorta di neo-potere, caratteristico delle piattaforme, che ha dato vita a un nuovo potere politico ed economico tale che le proprie policy di utilizzo si trasformano di fatto in leggi internazionali.

 

(Con policy si indica un insieme di azioni (ma anche di non azioni) poste in essere da soggetti di carattere pubblico e privato, in qualche modo correlate ad un problema collettivo privato o pubblico).

 

Queste piattaforme, grazie alla loro tecnologia, forniscono servizi basati su standard che spesso sono superiori a quelli dei servizi classici – sia privati che pubblici – innescando, senza che ce ne rendiamo appieno conto, processi di privatizzazione consensuale, silenziosi e inavvertiti.

Tra l’altro, questo è il motivo per cui i padroni del web si stanno imponendo nella ricerca scientifica e nella formazione.

E questa è la causa di un conflitto in atto – inedito nella storia moderna: degli Stati nazionali contro le piattaforme transnazionali.

C’è da aggiungere che – in virtù della sua deterritorializzazione – si è anche sviluppata una sorta di etica hacker anarco-capitalista che ha come obiettivo un mercato digitale libero da ogni regolamentazione.

A questo proposito va osservato che la grossa capacità di calcolo e di elaborazione dei dati possono consentire alle grandi aziende dell’informatica di fornire analisi in qualunque settore, potendo attingere non solo alle risorse del proprio recinto di dati, ma anche da fonti ad accesso libero.

In realtà la produzione di dati a mezzo di dati fa si che la volontà di offrire piattaforme aperte è più che altro una forma di capitalismo travestito di buonismo, nel quale il lavoro individuale diventa una opportunità di contribuire al loro progresso.

Perché?

Perché il meccanismo alla base delle nuove forme di intelligenza artificiale è il cosiddetto apprendimento automatico o machine learning.

Per capirci, mentre nell’algoritmica classica la macchina esegue determinati compiti prefissati da un ordine, nel machine learning l’algoritmo si nutre in modo autonomo di dati, dati che sono la sua materia prima.

Facciamo un esempio, se vogliamo creare un programma che sappia distinguere le foto degli asini da quelle dei cavalli, occorre metterlo in condizione di esaminare un enorme dataset di immagini di asini e di cavalli.

L’algoritmo studierà queste foto contrassegnate da un etichetta che li distingue “riequilibrandosi” in continuazione in  modo da commettere sempre meno errori possibili di riconoscimento.

Alla fine sarà in grado di distinguere con una buona approssimazione un asino da un cavallo da una foto che non ha mai visto.

L’importanza di questo processo è che può essere applicato a qualunque cosa inerte o vivente,

sia esso il software per riconoscere una traccia musicale, come per identificare una persona partendo da come cammina o per come parla.

L’unica cosa di cui abbiamo bisogno è un dataset sufficientemente grande di informazioni adatto al contesto.

Lo stesso processo può poi essere applicato al sentiment analysis ovvero a quei sistemi sviluppati per determinare il livello di “positività” o di “negatività” di un testo.

Un’analisi importantissima sia nel mondo della pubblicità, come in quello della politica e della diplomazia.

Questo perché siamo tutti, nessuno escluso, produttori di dati e di relazioni che entrano in modo sempre più diretto nei processi di accumulazione capitalista legati ai Bigdata o per via di espropriazione o per via di assoggettamento.

 

(Gottfried Leibniz (Lipsia 1646 – Hannover 1716) è stato un matematico, filosofo, logico, giurista storico e magistrato tedesco di origine soroba o serba.

A lui dobbiamo il termine di funzione che egli usò per individuare le proprietà di una curva.  Leibniz, assieme a Newton, è colui che sviluppò il calcolo infinitesimale e in particolare il concetto di integrale.
È considerato il precursore dell’informatica e del calcolo automatico e fu l’inventore di una calcolatrice  meccanica detta macchina di Leibniz .  È considerato uno dei più grandi esponenti del pensiero occidentale).

 

È stato Leibniz il primo a cercare di elaborare un modello logico capace di risolvere con un calcolo qualunque problema.  Oggi, per gli ingegneri della Silicon Valley, ma soprattutto per i proprietari dei dati e delle macchine di calcolo, questo è un mito che appare se non vicino, perlomeno pensabile.

Un po’ di cronaca. Nel 2008 su Wired fu pubblicato l’articolo – ora celebre – di Chris Anderson che annunciò l’era dei Petabyte.

Il Petabyte è un’unità di misura dell’informazione o della quantità di dati.

Il termine deriva dalla unione del prefisso SI peta con byte e ha per simbolo PB.

Il prefisso peta deriva dal termine greco penta e sta ad indicare 1000 alla quinta.

Perché sono importanti i Petabyte?

Perché hanno reso obsoleti molti aspetti del metodo scientifico classico e dell’elaborazione di modelli teorici, sostituendoli con l’analisi dei dati.

Perché hanno creato una nuova forma di fiducia verso gli algoritmi e la correlazione statistica delegando – di fatto – alla macchina la capacità di analisi che si credono obiettive.

L’algoritmo valuta l’efficacia dei manager o degli insegnanti.  Come investire in borsa.  Quando vi ammalerete e, con buona approssimazione, perché.

Ci ricorda cosa ci piace, quale musica ascoltare, quali libri acquistare.

 

Dov’è la zona oscura?

L’algoritmo, in ultima analisi diventa il nostro critico, il nostro esperto, il nostro giudice.

Per dirla in maniera più tecnologica l’algoritmo apprende, elabora, costruisce una “scatola nera” capace di valutazioni e di fornire risultati senza che il programmatore sia a conoscenza dei criteri che portano al risultato finale.

Che cosa interessa in modo specifico di questo processo alla sociologia?

Che nella fase di apprendimento la macchina si appropria anche di bias, distorsioni ed errori che possono essere nel dataset di partenza.

È un caso di scuola il caso di Tay, il Twitter-bot di Microsoft che fu ritirato perché antisemita.

 

In informatica il significato di bot (da robot) si è trasformato nel tempo.

Inizialmente indicava un software usato per svolgere automaticamente attività ripetitive su una rete, ad esempio un mailbot risponde con messaggi automatici a e-mail inviati a uno specifico indirizzo di posta elettronica.

Oggi il bot descrive anche programmi che possono interagire autonomamente con sistemi o utenti, come i bot sui social che simulano persone reali.

I bot di Twitter (Twitter bot) gestiscono automaticamente account e sono programmati per comportarsi come utenti umani: seguono altri account, ri-twittano e generano automaticamente contenuti e se malevoli possono anche diffondere notizie false e sfruttare hashtag e parole chiave degli argomenti più popolari per inserirsi aggressivamente in scambi tra persone reali e provocarne le reazioni.

Secondo gli americani sono quelli che sono intervenuti e modificato in modo significativo il risultato delle elezioni americane.

 

In altri termini, il mito – pericoloso e in ogni caso e per molto ancora irrealizzabile – è quello di una oggettivazione del giudizio.

Al pari di un individuo qualsiasi – la cui capacità di analisi e di valutazione è influenzata dalla sua cultura e da ciò che gli è capitato di vivere – l’algoritmo di machine learning si sviluppa apprendendo.

Per le scienze sociali dobbiamo considerare le implicazioni politiche di questo congegno, ovvero di come spesso un dataset possa essere confezionato ignorando le minoranze etniche, culturali e politiche, sottovalutando le diversità.

Così operando la macchina s’imbeve di opinioni e gusti che riflettono l’opinione dominante e, allo stesso tempo, da vita a una retorica che appare oggettiva.

Come dicono gli scettici: gli algoritmi di deep learning sono intelligenti o stupidi tanto quanto chi li programma e per adesso sono spesso destinati a confondere la correlazione con la causalità.
Prima di concludere queste note vale la pena di rilevare due cose.

Lo scontro tra apocalittici e integrati nell’ambito delle nuove tecnologie digitali è più che altro un scontro emotivo legato alla sensibilità culturale.

Occorre invece pensare alla tecnologia come una forza autonoma e riconoscere che è determinata dai rapporti di proprietà e di produzione, gestita dalle relazioni di potere e di classe.

 

Un esempio che risale al primo secolo prima dell’era comune può essere illuminante.

In questo secolo il matematico Erone di Alessandria concepì una specie di macchina a vapore che se sviluppata avrebbe potuto anticipare la tecnologia a vapore di almeno diciotto secoli.

Ma questa macchina non trovò nessuna applicazione pratica perché la grande quantità di schiavi a disposizione rendeva superfluo studiare questa tecnologia.

La seconda cosa è che il mito della neutralità algoritmica discende dal mito della neutralità scientifica.

In realtà come mostra la critica marxista ci sono condizionamenti reciproci tra scienza e rapporti sociali di produzione.  Il concetto di neutralità non è che una forma particolare di feticismo che attribuisce a proprietà oggettive intrinseche dei prodotti dell’attività intellettuale e manuale degli uomini ciò che discende dai rapporti sociali che tra di essi intercorrono.

 

En passant.  Molti sociologi parlano a proposito di algoritmi di autorità algoritmica sull’informazione e la conoscenza, parlano di algocrazia nel mondo del lavoro, così come di identità algoritmiche bio-politicamente calcolate e assegnate agli ignari utenti dei social media.

Così come si parla di black box society, di algorithmic life.

Questa attenzione rivela una preoccupazione sulle conseguenze politiche micro-sociali e culturali del digitale, ma soprattutto sulla trasparenza dei processi computazionali.

 

Secondo il sociologo americano Ted Striphas la cultura americana si sta progressivamente trasformando in una algorithmic culture caratterizzata da un forte determinismo tecnologico.

Per semplificare al massimo quello che preoccupa in questo momento le scienze sociali non è l’input – i Big data estratti dall’attività di miliardi di consumatori – né l’output, ma la non trasparenza che sta nel mezzo, vale a dire le righe di codice che guidano il processo con cui gli algoritmi on line ingeriscono i dati sui comportamenti degli utenti.

Algoritmi che abbiamo detto più volte rappresentano un investimento da custodire – insieme ai dati – con grande cura perché gran parte dei ricavi di colossi come Netflix e Amazon derivano proprio dai suggerimenti automatici.

Infatti, molti degli algoritmi delle nostre tracce digitali sono disegnati da privati per scopi commerciali, le conseguenze, però sono pubbliche e spesso inquietanti.

 

Il caso di scuola è quello del recommender algorithm di Amazon che in piena stagione di terrorismo suggeriva le componenti per fare una bomba artigianale in quanto “spesso comprate insieme”.

In questo aneddoto – vero – per riprendere un’espressione di Hanna Arendt, sta quella che si potrebbe chiamare la banalità dell’algoritmo: il semplice e apparentemente neutrale eseguire gli ordini può produrre esiti indesiderati e pericolosi.

 

Una nota sul data minig.

Definiamolo prima di analizzarlo.

Il data mining concerne l’estrazione di informazioni – eseguita in modo automatico o semi-automatico – da grandi quantità di dati – conservati nelle banche dati – per la ricerca di pattern e/o relazioni non note a priori.

Implica l’uso di tecniche di analisi che si avvalgono di modelli matematici e statistici per l’interpretazione e la previsione dell’andamento di serie temporali e consentono di implementare le capacità analitiche di tipo predittivo.

Il data mining viene sempre più spesso utilizzato per orientare le opinioni e i processi decisionali.

Va anche detto che questo lavoro sui dati non si limita alla pura constatazione e osservazione di fatti, perché il suo fine è quello di mettere in atto azioni capaci di produrre valore.

Ci sono quattro misure – dette anche le quattro V – che consentono di catalogare i dati raccolti e di poterne individuare una grandezza.

Queste misure sono:

Il Volume, è una misura facile da intuire in quanto riguarda l’accumulo dei dati, ma va valutata.

Ogni minuto vengono caricate sulla piattaforma di sharing Youtube più di trecento ore di video.

Facebook genera quasi cinque petabyte di dati al giorno.

Twitter gestisce oltre 600 milioni di tweet ogni 24 ore.

Il numero di mail scambiate ogni giorno nel mondo e poco più di duecento miliardi di unità.

(Sono dati del 2016 e sono per la nostra esperienza impensabili)

La Velocità.  Concerne la necessità di ridurre al minimo i tempi di analisi dei dati cercando di effettuarli in real time o quasi e distinguendo quelli che potrebbero essere o diventare in tempi brevi obsoleti.

La Varietà.  È una delle caratteristiche più importanti in quanto incide sul valore di rete generato.

I dati – a una classificazione di massima – possono essere dati strutturati (costituiscono il venti per cento di tutti i dati).  Dati non strutturati sono i dati conservati senza alcuno schema e composti da un elevato numero di metadati, ossia di informazioni che specificano il contenuto e il contesto di una pagina web.  Dati semi-strutturati.  Come i dati XML, un metalinguaggio per la definizione di linguaggi di markup.

La quarta misura è la Veridicità. Indica il grado di accuratezza e di attendibilità dei dati.  È la condizione chiave per poter estrarre valore dai dati.

Queste quattro misure, poi, sommariamente descritte, sono legate da processi di interdipendenza.

Partendo da esse possiamo definire i Big data ( ed è quello che interessa la sociologia) come un patrimonio informativo caratterizzato da velocità, volume e variabilità elevati, che richiede forme innovative di analisi e di gestione finalizzate a ottenere una più accurata comprensione dei processi decisionali.

 

Bias e dintorni.

Occorre intenderci quando si parla di intelligenza artificiale perché è un’espressione che potrebbe far pensare a macchine dotate di conoscenza, in grado di ragionare e, soprattutto, consapevoli di ciò che stanno facendo.

Le cose, in realtà, sono molto diverse.

Il fatto che un software impari a riconoscere se in una immagine ci sono dei gatti non significa che sappia che cos’è un gatto.

O meglio, il software che ci batte giocando a scacchi non ha la più pallida idea di che cos’è il gioco degli scacchi, come per esempio avvenne quando Deep Blue batté Gary Kasparov.

Diciamo, allora, che i sofware non sono in grado di pensare.

Sono solo in grado di processare una quantità enorme di dati e di metterli in relazione tra di loro, identificando collegamenti e differenze o calcolarli statisticamente.

Nel nostro caso di identificare la mossa degli scacchi che ha la maggiore probabilità di avere successo.

I mezzi utilizzati per arrivare a questo risultato sono sostanzialmente due.

Il machine learning – ovvero, l’apprendimento automatico – e la sua più recente evoluzione, il deep learning – l’apprendimento approfondito.

 

In particolare il deep learning lavora su un vastissimo numero di strati interni alle cosiddette rete neuronali che simulano il funzionamento del cervello raggiungendo così una maggiore capacità di astrazione.

 

En passant, ricordiamo che gli studi sulla cosiddetta intelligenza artificiale risalgono alla metà del secolo scorso.

Oggi possiamo definire il machine learning come una branca dell’intelligenza artificiale che fornisce ai computer l’abilità di apprendere senza essere stati esplicitamente programmati.

Apprendere attraverso tentativi ed errori attraverso una sorta di calcolo statistico estremamente evoluto.

Alla fine del secolo scorso, invece, la ricerca sulla cosiddetta intelligenza artificiale si concentrava sullo sviluppo delle capacità simboliche.

Vale a dire si cercava di far apprendere alle macchine tutte le regole necessarie per portare a termine un compito.

Per tradurre dall’italiano all’inglese – per fare un esempio – si cercava di fornire al computer tutte le regole grammaticali e i vocaboli delle due lingue per poi chiedergli di convertire una frase da una lingua all’altra.  Con il risultato di tradurre merluzzi con piccoli merli.

Va ricordato un pioniere di queste ricerche, Silvio Ceccato, che per anni lavorò nel laboratorio di cibernetica dell’Università Statale di Milano.

Diciamo che il modello simbolico ha grossi limiti e funziona solo in quei campi che hanno regole chiare e rigide, come la matematica e gli scacchi.

L’atteggiamento generale iniziò a cambiare con gli ultimi anni del secolo scorso quando diventò evidente che il machine learnig consentiva di risolvere problemi che l’intelligenza artificiale simbolica non sarebbe mai stata in grado di risolvere.

Questo anche grazie a una mole senza precedenti di dati a disposizione e all’accresciuta potenza di calcolo dei computer.

Per farvi capire il volume dei dati riflettete su questo: nel 2013, il 90 per cento dei dati prodotti nella storia dell’umanità era stato creato nei due anni precedenti.

 

Alla base del machine learning c’è l’utilizzo di algoritmi che analizzano enormi quantità di dati, imparano da essi e poi traggono delle conclusioni o fanno delle previsioni.

Per questo si dice che questi programmi hanno un abilità di apprendere senza essere stati esplicitamente programmati a differenza dei software tradizionali che si basano su un codice scritto che li istruisce passo dopo passo.

In breve, nel caso del machine learning la macchina scopre da sola come portare a termine l’obiettivo che le è stato dato.

È una forma di intelligenza?

No.  Per imparare a riconoscere un numero, diciamo il numero “quattro”, un’intelligenza artificiale deve essere sottoposta a migliaia e migliaia di esempi.  A un bambino di cinque anni basta vederne cinque o sei.

In ogni modo il metodo probabilistico è alla base di molte operazioni che ci semplificano la vita: il machine learning viene impiegato dai filtri anti-spam per eliminare la posta indesiderata, da Facebook per indovinare quali sono i nostri amici nella foto, permette ad Amazon o a Netflix di suggerirci quali libri leggere o quali film vedere o a Spotify di classificare le canzoni in base al genere musicale.

Ma il machine learning è in marcia.

Guiderà le nostre automobili, ma già adesso ci può assistere come avvocato, soprattutto nelle pratiche internazionali.  Un avvocato capace di scartabellare nei database legali di tutto il mondo.

E non dimentichiamo Watson – l’intelligenza artificiale di IBM – che può diagnosticare i tumori con precisione maggiore di molti medici ospedalieri.

Riassumendo. Per la cosiddetta intelligenza artificiale i due fattori fondamentali sono il potere di calcolo e i dati.  Quest’ultimi devono essere di buona qualità essendo la materia grezza alla base delle conclusioni o predizioni del network.

Come dicono gli informatici, se inserisci spazzatura, esce spazzatura.

Qual è allora il problema?

È che spesso i dati forniti alle IA (intelligenze artificiali) includono molti pregiudizi umani che si riflettono inevitabilmente sui risultati ottenuti con le macchine.

L’esempio di scuola di questa constatazione è quella del bot progettato da Microsoft e chiamato Tay.  Ne abbiamo già parlato.

Appena ha cominciato a immagazzinare dati si sono scatenati i troll che hanno iniziato a comunicare con Tay dandogli in pasto una miriade di opinioni razziste e omofobe diventando nel giro di 24 ore il primo esempio di intelligenza artificiale nazista.

Un aneddoto racconta che un istante prima di essere chiuso Tay twittò: Hitler was right I hate the Jews.

Lasciando stare i troll un altro problema nella distorsione delle IA è l’uso di training set facilmente accessibili e a basso rischio legale dal punto di vista del copyright.

Due esempi spiegano bene il problema.

Una fonte per istruire i network neuronali sono le e-mail.  In un caso furono usate le mail di una compagnia petrolifera texana.  Sembravano perfette fino a quando questa compagnia non fu denunciata per truffa.

Va da se, la IA aveva assorbito l’arte di truffare!

Spesso per evitare i copyright si usano dati provenienti da opere che non sono più soggette ad esso.  Per esempio, in lingua inglese, Shakespeare, Joyce, Scott Fitzgerald.

Ma anche in questo caso c’è un problema non da poco.

Sono autori pubblicati prima della seconda guerra mondiale e un dataset che faccia affidamento sui  loro scritti non farebbe altro che riflettere i pregiudizi del tempo e lo stesso farà il sistema di intelligenza artificiale nutrito con questo dataset.

Si tratta di un problema enorme e delicato, soprattutto per quanto riguarda l’ordine pubblico,  perché, come si è già verificato, certe etnie – solo a causa di statistiche mal impostate – sono state considerate come naturalmente più predisposte a diventare terroristiche o a commettere crimini.

Il problema diventa ancora più delicato con i software predittivi in mano alle forze dell’ordine perché spesso essi finiscono per causare – come dice la sociologia – una profezia che si auto-avvera o che si auto-adempie.

 

In sociologia una profezia che si auto-adempie o che si auto realizza, è una previsione che si realizza per il solo fatto di essere stata espressa.

Predizione ed evento, infatti, sono in un rapporto circolare, secondo il quale la predizione genera l’evento e l’evento verifica la predizione.

Ad esempio nel mercato azionario ad una convinzione diffusa dell’imminente crollo di un’azienda, gli investitori possono perdere fiducia e mettere in atto una serie di reazioni che possono causare proprio il crollo della stessa.

In una campagna elettorale un candidato che dichiari di non credere nella sua vittoria può indurre apatia o rassegnazione nei suoi potenziali elettori, che si concretizzano in una diminuzione della sua base elettorale.

In psicologia, una profezia che si auto-adempie si ha quando un individuo, convinto o timoroso del verificarsi di eventi futuri, altera il suo comportamento in un modo tale da finire per causare tali eventi.

 

In conclusione il pericolo sta nel fatto che gli algoritmi – protetti dalla loro aurea di scientificità – potrebbero diventare una giustificazione per profilazioni in sé inattendibili e generare equivoci.

In sostanza, ogni sistema di profilazione o predittivo è efficace solo se i dati inseriti sono corretti e privi di bias.

 

Fenomenologia del “dato”.

Il fenomeno dei big data ha smesso da tempo di essere un argomento specialistico per diventare un tema ricorrente sui social network.

Su LinkedIn, per esempio, ci sono più di duemila gruppi dedicati all’argomento, può sembrare strano, ma non dimentichiamo che i data sono il nuovo petrolio, o se preferite uno dei temi centrali della contemporaneità.

Alla base di questa situazione ci sono le tecnologie digitali oramai essenziali a innumerevoli attività professionali, della comunicazione, dell’economia, dell’industria, della cultura.

Così come ci siamo noi, che siamo sempre più dipendenti a una serie di dispositivi digitali necessari per svolgere un numero sempre più elevato di compiti quotidiani e dotati di un numero sempre crescente di sensori e strumenti di registrazione.

È per questo motivo che la natura dei dispositivi digitali è quella di essere delle macchine che in prima istanza producono dati.

Il più famoso di essi lo chiamiamo ancora “telefonino”, ma lo smartphone è a tutti gli effetti un computer portatile di dimensioni ridotte, ed è proprio la sua vera natura che lo fa costare così poco.

Lo facciamo senza pensarci, ma la mattina quando lo accendiamo o, meglio, lo avviamo – sempre che non lo lasciamo acceso in continuazione – il nostro smartphone invia a più soggetti, con i quali ci collega, il segnale che il device è attivo.  Quali sono questi soggetti?

Il produttore del telefono, il produttore del sistema operativo, quelli delle app che abbiamo installato e ad altri a essi collegati.

Poi se sul nostro smartphone abbiamo attivato la geo-localizzazione, verranno registrati anche i nostri tragitti quotidiani che finiranno a far parte di quell’insieme di dati che trasmettiamo a tutti i soggetti a cui siamo legati per suo tramite.

In altri termini, se una mezzora dopo essere usciti di casa il nostro smartphone raggiunge un indirizzo che corrisponde a quello di un’azienda o di una scuola, come nel nostro caso, e da qui non si muove per un certo periodo di tempo, sarà piuttosto facile per chiunque abbia i mezzi per raccogliere questi dati anche processarli e trarne delle conclusioni.

In passato questa acquisizione di dati creava spesso frizioni, oggi avviene in modo automatico, senza interferenze, perché ogni dispositivo che noi utilizziamo crea una traccia digitale fatta di dati che possono essere aggregati, analizzati e letti.

Questa situazione è oggi accentuata dall’internet delle cose (Internet of Things) – che abbiamo già definito come l’implementazione di connettività all’interno di elettrodomestici ed oggetti di uso comune – che ha fatto crescere le dimensioni della nostra traccia digitale trasformandola in modo radicale, dando vita all’ombra delle nostre abitudini di consumo.

Diciamo che con la mole di dati raccolti si può fare un vero e proprio profilo virtuale della nostra esistenza, esistenza di cui senza una piena consapevolezza cediamo la proprietà e il controllo ai produttori di device e ai fornitori di servizi digitali.

 

Dunque ancora un problema di dati, la cui importanza – come fenomeno centrale della modernità – fu messa in luce qualche anno fa dalle discussioni sulla post-fattualità.

Post-fattuale(in inglese post-truth) è un termine inventato da David Roberts, un blogger ambientalista americano.  Serve a spiegare la crescente inclinazione di parte della società moderna a credere a notizie false o fortemente alterate, cioè, alle “bufale”, come si dice in Italia.

Semplificando molto, quello che stiamo vivendo è un passaggio da una modalità o schema di giudizio basato sull’osservazione diretta e la testimonianza dei fatti a una modalità di giudizio basata sulla raccolta, l’aggregazione e l’analisi dei dati.

La domanda che, per conseguenza, dobbiamo porci è questa:

In che modo il passaggio dai dati ai fatti come modalità di giudizio cambia il modo in cui vediamo le cose?

In primo luogo dobbiamo rilevare come il ruolo che i dati rivestono nel determinare il giudizio che diamo sulla realtà che ci circonda è la loro pretesa oggettività rispetto ai fenomeni che descrivono.

Per verificarlo basta fare un giro sui social network per costatare il modo in cui gli utenti sbandierano dati, statistiche, inchieste di data journalism ed altre forme di presentazione dei dati come se fossero la “bibbia”, con il solo obiettivo di far accettare all’interlocutore l’evidenza della propria posizione.

Molte inchieste hanno dimostrato che nel sentire comune, in primo luogo dei nativi digitali, ciò che viene presentato e supportato attraverso i dati assume la forza di un’evidenza sostanzialmente incontestabile.

O, per dirla in altro modo, sembra che il dato abbia assunto uno statuto simile a quello di un elemento naturale, uno statuto comparabile a quello dei fatti osservabili che per secoli hanno costituito l’unica base possibile di giudizio.

Questa credenza del dato come un paradigma di oggettività è il prodotto di due fattori.

– Da una parte è il risultato dell’abbassamento delle soglie d’ingresso alla produzione e distribuzione delle informazioni che ha reso possibile un mondo caratterizzato dalla parcellizzazione delle opinioni e dei punti di vista competenti, generando quello che i sociologi chiamano un panorama liquido e mutevole.

– Dall’altra è l’effetto ideologico della costruzione di un discorso e di un punto di vista che ha come obiettivo di nascondere e rimuovere la reale natura dei dati.

In effetti, quelli che noi ci siamo abituati a considerare come fatti che si danno in modo spontaneo all’analisi e che chiamiamo comunemente dati, sono in realtà una selezione da un catalogo infinito di possibilità che si danno ai nostri sensi.

Per cui, considerato che l’operazione di selezionare e stabilire delle differenze tra le cose che ci circondano è l’atto stesso di fondazione di una cultura, allora anche i dati che raccogliamo e analizziamo ne portano impresso il segno.

Considerati da questo punto di vista, cioè come un elemento culturale, i dati perdono il carattere dell’oggettività per diventare – come le opinioni – il prodotto delle condizioni e del contesto in cui vengono sviluppati.

In questo senso, anche i dati portano impressi i bias culturali di chi progetta i sistemi per raccoglierli e le cornici concettuali per analizzarli, mettendo così in luce alcuni aspetti a discapito di altri, a seconda dei punti di vista da cui vengono creati.

 

Di alcune rivoluzioni. (Floridi)

Come da tempo è spiegato dalla gnoseologia, la scienza muta la nostra comprensione della realtà in due modi.

Il primo modo è definito estroverso, ossia riferito a ciò che ci circonda del mondo.

Il secondo è definito introverso perché è riferito alla nostra condizione umana, a ciò che siamo o pensiamo di essere.

Ci sono tre rivoluzioni, nel millennio che ci siamo lasciati alle spalle, che hanno avuto un forte impatto sia sul mondo che in quello che siamo.

Vale a dire, queste rivoluzioni nel modificare la nostra comprensione del mondo esterno hanno modificato anche la concezione di chi siamo, hanno radicalmente cambiato la nostra comprensione di sé.

 

Fino a sei secoli fa eravamo abituati a pensare di essere al centro dell’universo, messi lì da un onnipotente dio-padre e creatore.

Era, visto in prospettiva, una pietosa illusione che rassicurava, che ci faceva convivere con l’angoscia generata dall’invenzione del tempo.

Nel 1543, Niccolò Copernico pubblicò il suo trattato sulla rotazione dei corpi celesti.

Quando questo libro uscì nessuno pensava che dopo aver scosso il nostro modo di vedere la terra e i pianeti avrebbe dato l’avvio a una rivoluzione sul modo di comprendere noi stessi.

I fatti sono quello che sono.

La sua cosmologia eliocentrica ha spodestato per sempre la terra dal centro dell’universo e ci ha costretto a riconsiderare la nostra posizione e il nostro modo di rapportarci ad essa.

Le conseguenze di questa rivoluzione si resero visibili quasi subito, costringendoci a una riflessione più obiettiva e approfondita sulla nostra condizione umana.

Abbiamo capito che la terra è un pianeta piccolo e fragile e abbiamo trovato nella ragione la forza per studiarlo e continuare a studiarlo dall’alto delle nostre esplorazioni spaziali.

 

La seconda rivoluzione è avvenuta nel 1859 quando Charles Darwin pubblicò L’origine delle specie.  In questo libro si riassumevano anni di esplorazione sul campo e si affermava che ogni specie vivente è il risultato di un’evoluzione da progenitori comuni attraverso un processo di selezione naturale.  Con Darwin la parola evoluzione acquistò un nuovo significato che molti ritenevano sgradevole e insopportabile.

Un significato che molte religioni ancora oggi rifiutano o accettano solo parzialmente.

In ogni modo, sebbene non fossimo più al centro dell’universo, sebbene fossimo poco più che animali eravamo ancora padroni dei nostri contenuti mentali.

In altre parole la nostra capacità di autocoscienza, di elaborare una coscienza di sé, ci dava ancora un posto speciale nell’Universo.

Penso dunque sono, aveva affermato Cartesio e l’introspezione era considerata un viaggio interiore alla scoperta di sé.  Ci pensò Sigmund Freud a liquidare questa illusione.

La terza rivoluzione mostrò che la mente è inconscia e incontrollabile.

Che ciò che facciamo è soprattutto il frutto dell’inconscio e i cosiddetti stati coscienti sono da noi utilizzati per dare una giustificazione razionale alle nostre azioni.

In altri termini scoprimmo di non essere più liberi neanche nella nostra coscienza, che ubbidisce più all’inconscio che a noi, banalizzando ciò che ritenevamo il frutto della volontà.

 

In ogni modo dopo queste tre rivoluzioni ci restava l’intelligenza, una proprietà difficile da definire, ma che ci poneva in una posizione di assoluto vantaggio tra le forme viventi.

Sapevamo costruire macchine, sviluppare progetti e utilizzare le forme della tecnica.

Blaise Pascal, che visse nella prima parte del XVII secolo, inventò la macchina aritmetica – più conosciuta come la pascalina – con la quale si potevano realizzare la quattro operazioni.

È curioso un fatto, il metodo di calcolo inventato da Pascal e basato sui complementi è analogo a quello che seguono oggi i computer.  Questa macchina ottenne un grande successo e influenzò un altro grande matematico e filosofo del XVII secolo, Gottfried Leibniz.

Ricordiamo che fu Leibniz a inventare il sistema dei numeri binari e che per questa ragione è considerato il primo scienziato dei computer.

In estrema sintesi, per Pascal, pensare era ragionare, ragionare era far di conto e la sua macchina era in grado di farlo.

Si potrebbe dire che i germi della quarta rivoluzione erano stati gettati.

Pascal non poteva immaginare che avremmo costruito macchine in grado di superarci nella capacità di processare informazioni dal punto di vista logico.

Ciò che non era ancora pensabile diventò però chiaro con il lavoro di Alan Turing, il protagonista della quarta rivoluzione.

In altri termini e senza certamente prevederlo, Turing ci ha spodestato dal regno del ragionamento logico.  Dalla capacità di analizzare dei dati e di agire in modo conseguente.

Con il risultato che non siamo più gli indiscussi padroni del mondo dei dati e del loro uso.

La parola computer è a questo riguardo significativa.

Tra la fine del XVII secolo e il XIX era sinonimo di persona che svolge dei calcoli.

Il termine computer è il nome dell’agente del verbo to compute.

L’etimo latino è composto da com / cum (insieme) e putare (tagliare, rendere netto – da cui anche potare) e significa propriamente: confrontare (o comparare) per trarre il netto della somma.

In sostanza, il termine computer indicava originariamente una persona incaricata di eseguire dei calcoli.

Fu grazie a Turing che negl’anni ’50 del secolo scorso la parola computer perse il suo riferimento all’uomo e divenne sinonimo di macchina programmabile, ovvero, macchina di Turing.

 

La quarta rivoluzione ha cancellato del tutto il convincimento della nostra unicità e ci ha ridisegnato come organismi informazionali (inforg) reciprocamente connessi e, al tempo stesso, parti di un ambiente informazionale (infosfera) che condividiamo con altri agenti naturali e artificiali, agenti che processano informazioni in modo logico e autonomo.  …

::::::::::::::::

… Molto probabilmente la prossima generazione sarà la prima a non considerare più rilevante la distinzione tra ambiente online e offline.  Una distinzione opaca fin da oggi, se la casa è dove sono i nostri dati, allora viviamo già da tempo su Google Earth o nel cloud.

Questo, però,  non vuol dire che la rivoluzione digitale ci trasformerà in un’umanità di cyborg.

Un numero di telefono solo nei film si può digitare per mezzo di una tastiera virtuale che appare sul palmo di una mano, più realisticamente, e senza essere cyborg, lo possiamo comporre pronunciandolo, grazie al fatto che il nostro smart-phone ci capisce.

Per comprendere la logica degli ambienti informazionali dobbiamo pensare al fatto che in molti contesti le ICT (le tecnologie dell’informazione e della comunicazione) hanno cominciato ad essere la squadra che gioca in casa nell’infosfera con noi che giochiamo in trasferta.

 

Per spiegare che cos’è un algoritmo e illustrare il meccanismo SE/ALLORA siamo ricorsi al gioco della morra cinese.

Oggi non siamo in grado di battere le ICT neppure a questo gioco poiché un robot è così veloce da riconoscere in un millesimo di secondo la forma assunta dalla nostra mano e scegliere la mossa vincente.

Oggi, per comprendere quello che molti chiamano il nostro destino informazionale dobbiamo tenere presente la distinzione tra tecnologie che migliorano e tecnologie che aumentano.

Impugnature, interruttori, manopole – che caratterizzano le tecnologie che migliorano (come ieri erano martelli, leve, pinze…) – sono interfacce volte a consentire l’applicazione dello strumento al corpo dell’utente in modo ergonomico.

Le tecnologie che migliorano richiamano – se si vuole – l’idea di cyborg.

Invece i dati e i pannelli di controllo delle tecnologie che aumentano sono interfacce tra ambienti diversi.

 

Poeticamente possiamo dire che le vecchie tecnologie formano ambienti funzionali al loro scopo, ambienti raccolti, com’è l’interno acquoso e insaponato di una lavatrice o l’interno bianco e freddo di un frigorifero.

Le ICT, invece, sono forze che modificano l’essenza del nostro mondo, creano o ri-costruiscono realtà che l’utente è in grado di abitare.

DICIAMO CHE NON SONO CHIUSE SU SE STESSE, MA SONO AVVOLGENTI, COSTRUISCONO INTORNO A NOI.  …

:::::::::::::::::::::::

… Ci sono quattro tipi di privacy parlando di digitale ognuna delle quali può essere formulata in termini di “libertà da”.

Prima di tutto c’è la privacy fisica.

Si tratta della libertà del soggetto di essere libero da interferenze o intrusioni tangibili.  Si ottiene limitando la capacità altrui di interagire fisicamente con il nostro soggetto o di invadergli il suo spazio personale.

C’è poi la privacy mentale.

Considera la libertà del soggetto che non può essere oggetto di intrusioni, interferenze, minacce o lusinghe psicologiche.  In altre parole nessuno dovrebbe essere manipolato.

La terza privacy è detta decisionale.

Il soggetto deve essere protetto da interferenze o intrusioni procedurali.  Per farlo occorre escludere gl’altri dalla capacità di intromettersi nelle sue decisioni o in quelle delle persone della sua cerchia amicale.  Queste decisioni possono riguardare molti argomenti, le cure mediche, l’istruzione, la carriera, il lavoro, gli stili di vita, le credenze politiche o religiose, eccetera.

La quarta privacy è quella informazionale.

È la più delicata e difficile da gestire.  Si tratta della libertà del soggetto di non subire interferenze o intrusioni informazionali.  Come poterlo fare?

Stabilendo il novero dei fatti che lo riguardano e che devono restare sconosciuti o inconoscibili.

Per adesso possiamo solo dire che le ICT hanno fatto della privacy uno dei temi più rilevanti della società o, meglio,delle sue forme di governo.  …

:::::::::::::::::::::::::

… La nuova storia, la storia nell’era digitale, dipende in modo considerevole dai big-data, ma ci sono due problemi da considerare.

Il primo riguarda la qualità della memoria digitale perché le tecnologie dell’informazione e della comunicazione digitale hanno una memoria che dimentica.

Cosa vuol dire?

Che queste tecnologie – costi a parte – divengono rapidamente obsolete e rendono tutto molto volatile.  Vecchi documenti digitali sono diventati inutilizzabili perché la loro tecnologia non è più disponibile.  Basti pensare al caso dei floppy.

In Internet, poi, ci sono milioni di pagine abbandonate, vale a dire di pagine create e poi mai più aggiornate o modificate.

Nel 1998 la vita media di un documento, prima dell’abbandono, era di 75 giorni, nel 2008 si è ridotto a 45 giorni, oggi – 2018 – si parla di 37 giorni.

 

Molti studiosi hanno osservato che la nostra memoria digitale appare volatile come la nostra memoria orale anche se l’impressione che la memoria digitale ci trasmette è diversa.

Diciamo, da un punto di vista ideologico che, in questa alba del digitale, le ICT non conservano il passato per metterlo a disposizione del futuro dal momento che le strategie digitali tendono a farci vivere in un eterno presente.

Conservare la memoria, del resto, non è facile, occorre saper cogliere le differenze significative e saper stabilire le sedimentazioni in una serie ordinata di cambiamenti.  …

::::::::::::::::::::::

… Qual è il problema?  È che è lo stesso sistema dinamico, che consente di riscrivere migliaia di volte lo stesso documento, quello che rende altamente improbabile la conservazione delle versioni precedenti per un esame futuro.

“Salva questo documento” significa “sostituisci le versioni precedenti”, per cui ogni documento digitale di qualsiasi genere è destinato a questo destino tecnico-storico. A livello dei singoli utenti, e per certi tipi di documenti, esiste la possibilità di applicare procedure per conservare la storia delle revisioni di un documento (si vedano ad esempio i sistemi SCM – di Source Code Management – di cui il più diffuso è Git), ma il problema metodologico resta comunque complesso.

Qual è il rischio?  È che le differenze finiscano per essere cancellate e le alternative amalgamate.  Il passato costantemente riscritto e la storia ridotta a un perenne qui-ora.

 

Come dicono gli scettici, quando la maggior parte della nostra conoscenza è nelle mani di tale memoria che dimentica, possiamo trovarci e senza volerlo imprigionati in un eterno presente.

 

Questo è il motivo per cui si sono formate molte organizzazioni volte a conservare la nostra eredità culturale digitale come la “National Digital Stewardship Alliance” o l’”International Internet Preservation Consortium”.

In breve, il lavoro di custode delle informazioni digitali è uno dei nuovi mestieri di questo secolo.

Un altro aspetto del problema è che la quasi totalità dei dati è stata creata in pochi anni e tutti questi dati stanno invecchiando.

Invecchiano insieme ai nostri attuali supporti digitali, hard disk e memorie di vario genere.

 

MTBF – Mean Time Before Failure ovvero “il tempo prima del fallimento” è un paradigma che indica l’aspettativa di vita stimata di un sistema.

Più elevato è il MTBF più a lungo dovrebbe durare un sistema.  Un MTBF di cinquantamila ore – vale a dire di cinque anni e mezzo – è la vita media di un hard disk.

Il problema di fondo è che, per come si è sviluppato il sistema digitale, le aspettative di vita dei supporti dei nostri dati sono, al momento, sincronizzate.

Praticamente, i Big-data invecchieranno e diventeranno dati morti pressappoco nello stesso momento.  È chiaro che molti saranno salvati e trasferiti su altri supporti, ma chi stabilirà quelli che dovranno vivere e quelli che dovranno sparire? …

::::::::::::::

… Per capire meglio questo problema c’è un’analogia, è quella che ha riguardato il passaggio dai film in bianco e nero e muti, ai film a colori.  Fu fatto tutto senza un criterio e oggi noi sappiamo che più della meta delle pellicole girate tra i primi anni del Novecento e gli anni Cinquanta sono andate distrutte.

Nel 2007 il mondo ha prodotto più dati di quanti ne possa immagazzinare e ciò a dispetto del fatto che la densità di immagazzinamento degli hard disk stia crescendo rapidamente.

Per fare un esempio, si prevede che alla fine del prossimo anno (2020) un hard disk di 14 terabyte misurerà circa tre centimetri di diametro e non costerà più di una cinquantina di dollari.

 

È importante capire questo.  Nella cultura analogica il problema è cosa salvare.

Nella cultura digitale il problema è cosa cancellare.  …

:::::::::::::::

…Dobbiamo comprenderne il senso e le conseguenze.

Nel digitale il nuovo spinge via il vecchio.  Il primo che entra è il primo che esce.

Le pagine web aggiornate cancellano quelle vecchie, le nuove foto rendono obsolete le vecchie, i nuovi messaggi si sovrappongono ai precedenti, le e-mail recenti sono conservate a spese di quelle dell’anno prima.  …

.fine.

Fondamenti di Sociologia e di Sociologia della comunicazione visuale – A.A.2016-17 – Parte I

Potete scaricare il testo completo delle due parti da questo link:
Fondamenti di Sociologia e di Sociologia della comunicazione visuale – A.A.2016-17

***

Fondamenti di Sociologia e di Sociologia della comunicazione visuale.
Anno accademico 2016-2017.

 

(APPUNTI A CIRCOLAZIONE INTERNA NON REDAZIONATI)

Parte propedeutica. 

 

Grossomodo tutti sanno o credono di sapere che cosa sono la sociologia o le scienze sociali in generale.

In linea di massima si ritiene che siano delle discipline che studiano l’uomo e la società, le istituzioni, le relazioni sociali e i fondamenti della vita sociale. 

 

In particolare la sociologia è comunemente definita come uno studio scientifico della società o, se volete, dell’azione sociale e dei rapporti intersoggettivi al fine di interpretarli. 

 

Da un punto di vista storico o, meglio, dei processi che la strutturano e la destrutturano la sociologia è una delle scienze empiriche (o, prasseologiche) del diciannovesimo secolo, nate, nell’alveo del positivismo come risposta ai cambiamenti innovativi e per buona parte imprevisti introdotti dalla modernità. 

 

Davanti a un mondo, che appariva sempre più piccolo e integrato e a un’esperienza interpersonale sempre più parcellizzata e dispersiva, la sociologia rappresentava la speranza non solo di capire che cosa univa tra di loro gli individui e i gruppi sociali, ma anche di rimediare alle molteplici forme di disgregazione e di conflitto sociale e culturale in atto. 

 

Va aggiunto e evidenziato che all’inizio e per molto tempo fu una disciplina del mondo occidentale elaborata da una cultura permeata di eurocentrismo e istanze colonialiste, solo dopo due guerre mondiali e l’inizio del fenomeno della globalizzazione si diffuse nel resto del mondo, non senza qualche difficoltà che in alcuni casi giunse fino al suo rifiuto o a una sua radicale revisione.     

***

UNO

 

Sapientia prima est stultitia caruisse.
Orazio.

 

La sociologia, un tempo definita come una fisica dei fenomeni sociali, da un lato, rappresenta uno dei più efficaci paradigmi per la comprensione della complessità, che caratterizza il mondo moderno, dall’altro, costituisce uno degli strumenti più utilizzati per conoscere il modo di formarsi della cultura, dei valori, degli stili di vita e dei nuovi mutamenti sociali, come sono la globalizzazione dei mercati, l’affermarsi delle società multietniche, l’incidenza dei mass-media sulle mode, i costumi e le abitudini, l’avanzare delle tecniche digitali.

 

L’obiettivo di questa disciplina è anche quello di illustrare le dinamiche che conciliano e spiegano il divenire delle esperienze, le passioni e il fare degli uomini con la cultura dei segni, delle forme sociali e delle neo-tecnologie che dominano la modernità e le sue rappresentazioni.

 

Così come di educare gli uomini a decifrare i significati del mondo reale (vissuto) che si nascondono dietro le architetture della rappresentazione e dei suoi simulacri e essere capaci di governarli.

 

In breve, la sociologia si configura come un punto di vista particolare sulla realtà umana, come una ricerca sull’uomo in quanto individuo sociale che vive in collettività consapevole che è la memoria del vissuto che produce la storia, da un senso al presente e configura la sua identità.

 

In sostanza la sociologia si occupa della società come un prodotto umano e dell’uomo come un prodotto sociale.

E, per deduzione, che, per questa disciplina, è l’esperienza del vissuto che istituisce il tempo della storia e la sua agenda sociale! 

 

A grandi linee questa disciplina esamina:

– il divenire della società e delle sue configurazioni.

– le relazioni e le correlazioni che strutturano e organizzano i fenomeni della vita corrente.

– i rapporti tra le varie componenti che istituiscono e definiscono i sistemi sociali.

– le interdipendenze tra i valori, i significati e i simboli che compongono la cultura e che sono in continua trasformazione.

– i fattori e le modalità dell’azione sociale e della sociabilità.

– i linguaggi condivisi (i quali consentono la costruzione di un senso che orienta i comportamenti). 

– la costituzione e il funzionamento – attraverso le forme di governo – dell’organizzazione civile e delle forze che in qualche modo la determinano.

 

Prima di procedere proviamo a definire, o meglio, a descrivere cos’è la società.

Nell’accezione più comune il termine definisce ogni genere di legami esistente tra gli esseri viventi, siano essi animali o umani, considerando però il fatto che la società umana si distingue da tutte le altre perché nasce,vive e si sviluppa tramite un insieme di credenze e di rappresentazioni culturali .

 

Non va dimenticato, sul filo della storia, che è nella stagione del positivismo – che segue quella dell’Illuminismo francese – cioè, è all’inizio dell’800 che la sociologia nasce e si forma per un accumulo di conoscenze ritenute oggettive e razionali, tanto che la sua storia per molto tempo ha camminato a fianco a quella dell’idea di progresso.

 

Successivamente, nel corso della seconda metà del diciannovesimo secolo, si formeranno le grandi scuole con le loro teorie e i loro protagonisti.

Poi, verso la metà del Novecento, negli anni che seguono alla seconda guerra mondiale, nel discorso sociologico si cominciarono a elaborare quelle che furono definite le sintesi strutturali.

In pratica le diverse correnti delle scienze sociali cercarono di elaborare un proprio paradigma nel quale far convergere le metodologie della ricerca sociale e le loro sintesi ideologiche.

Seguì una stagione in cui si procedette a rileggere e in molti casi a rivalutare le problematiche etiche e morali dei fondatori di questa scienza.

Sono gli anni che vanno tra il 1960 e il 1980 circa e che hanno al loro centro la crisi o le utopie del 1968, a seconda dei punti di vista.

Oggi siamo alla fine di una fase che potremmo definire contestualistica.

Le teorie sociologiche sono trattate come se fossero degli strumenti ideologici per comprendere e adattare il comportamento degli uomini ai bisogni dell’epoca e ai suoi oggetti sociali. 

In un’ottica politica è come dire che le diverse sociologie, in cui si divide lo studio della società, sono diventate dei mezzi con i quali si legittima l’ordine sociale, sia esso improntato alla conservazione, che al progresso e all’innovazione.

 

Prima di proseguire vediamo un altro concetto che abbiamo usato per dire che viviamo in un mondo complesso: è la complessità.

Nel linguaggio comune la complessità è il contrario della semplicità oppure è un sinonimo di complicazione. Diverso è il significato di complessità nella letteratura scientifica.

Per esempio esiste una teoria della complessità oggi molto attuale, è quella che si è sviluppata intorno all’informatica (e alla conseguente cultura digitale) a partire dagli anni ’90 del secolo scorso.

Il termine è anche utilizzato come sinonimo di epistemologia della complessità, una corrente della filosofia della scienza apparsa nei primi anni ’70 del secolo scorso della quale ricordiamo gli studi di Edgar Morin, Isabelle Stengers e Ilya Prigogine.

 

Si parla di complessità o teoria della complessità anche in riferimento alla teoria del caos.

 

Nel concetto moderno di complessità si fanno confluire oltre ai lavori del fisico-matematico Henri Poincaré, che risalgono all’inizio del Novecento, anche gli studi della prestigiosa scuola russa di matematica e dei cibernetici americani come Norbert Wiener, Heinz von Foerster e Warren Weaver.

 

In sociologia la teoria della complessità serve a studiare la cosiddetta teoria del vivente, vale a dire come gli individui e i gruppi agiscono nel contesto reale in cui si trovano e come interagiscono tra di loro. 

“I rapporti tra gli individui non sono altro che il loro porsi in relazione.”  Karl Marx.

 

Attenzione a una confusione.

Un problema complicato (complicare in latino significa piegare assieme, arrotolare, avvolgere), è un problema che si fatica a risolvere perché contiene un gran numero di parti nascoste, che vanno elaborate una a una. 

Invece, un problema è complesso quando sono alte le interconnessioni che lo formano e lo trasformano.

In breve, nella complessità il tema è l’interconnessione, nella complicazione ciò che conta è l’alto numero delle parti che la compongono. 
Come abbiamo visto la sociologia è la scienza che studia con i propri metodi e strumenti d’indagine i fondamenti, i fenomeni, i processi di strutturazione e destrutturazione, le manifestazioni della vita associata e le loro trasformazioni.
In questo senso è stata anche definita come la scienza dei fenomeni sociali. 

 

Per le scienze sociali un fenomeno sociale è caratterizzato dalla proprietà di esistere al di fuori delle coscienze individuali, così gl’individui se li trovano di fronte come delle realtà che preesistono loro e che sono indifferenti alla loro presenza. 

In secondo luogo, i fenomeni sociali sono  anche dotati di un certo potere imperativo e coercitivo in forza del quale s’impongono agli individui con o senza il loro consenso.   

 

Il termine di sociologia fu coniato nel 1824 dal filosofo francese Auguste Comte (1798-1857) che, nel suo Corso di filosofia positiva, pubblicato nel 1839, la impiegò al posto di un’espressione allora più popolare, quella di fisica sociale

Un’espressione che era stata coniata nella seconda metà del ‘700 per definire lo studio positivo dell’insieme delle leggi fondamentali proprie dei fenomeni sociali

Questa idea di una fisica sociale, come strumento per studiare gli uomini, può sembrare curiosa ma nella seconda metà del diciottesimo secolo serviva a rivoluzionare un certo modo di vedere il mondo, a capovolgere le sue certezze centenarie, a seminare il dubbio là dove gli antichi saperi costituiti avevano i loro capisaldi, costruiti – il più delle volte – sulla sabbia dei luoghi comuni.

 

Il termine positivismo (che compare nel titolo del libro di Comte) fu impiegato per la prima volta da  Claude Henri conte di SaintSimon (1760-1825)  per definire un metodo esatto, dal punto di vista scientifico, con il quale fosse possibile affrontare i grandi temi con i quali la società e gli uomini devono in continuazione misurarsi.

L’idea da cui partì la ricerca di questo metodo affonda nelle tesi dell’Illuminismo, in particolare dai lavori di Jean-Baptiste d’Alembert (1717-1783) e Jacques Turgot (1727-1781).

 

In prospettiva possiamo dire che il positivismo contribuì ad affermare i principi o la necessità di una organizzazione scientifica della società (soprattutto di quelle industriali) dando un senso ad un grandissimo fenomeno, sociale, politico ed economico, il fenomeno della tecnica, intesa come una scienza dei mezzi, che si materializza nella tecnologia e da vita alla civiltà industriale.

 

Brevemente le tesi fondative del positivismo si possono sintetizzare così:
La scienza è l’unico strumento di conoscenza reale (dunque, possibile) del mondo da cui ne consegue che solo i principi scientifici e le cause analizzabili con il metodo delle scienze possono dare origine alla conoscenza.

Come mostra la storia di questa corrente di pensiero oltre che nel discorso delle scienze dell’uomo, il paradigma del positivismo, nel corso dell’Ottocento, penetrò nella medicina, nella politica, nella giurisprudenza, nell’insegnamento, nell’economia, nella filosofia e in molte altre discipline ancora.

La parola sociologia rimanda dunque a un discorso sull’individuo come membro della società, cioè, ad una disciplina che studia il fondamento dei rapporti intersoggettivi (tra soggetti) come se fossero una scienza, cercandone un senso, una ragione, un obiettivo sociale.

 

Nella scia delle teorie formulate da Auguste Comte incontriamo Herbert Spencer (1820-1903), un filosofo inglese di orientamento positivista, con grandi interessi per la psicologia, considerato il padre della filosofia evoluzionistica.

Spencer è l’autore di un trattato di sociologia in cui, per la prima volta, le teorie di Charles Darwin (1809-1892) sull’evoluzione sono applicato alle scienze sociali.

 

L’evoluzionismo – come visione del mondo – ha avuto, nell’ambito del discorso sociologico, il merito di focalizzare l’attenzione sul legame tra passato, presente e futuro.

Possiamo dire che ha sottratto il passato al suo destino di storia morta, facendolo apparire come un materiale vivente, o con un’immagine positivista, come il materiale geologico con cui l’uomo costruisce il suo presente, cerca d’immaginare il suo avvenire e gli dà un senso che non ha l’arbitrio di un destino ineluttabile . 

 

Insieme a Spencer va ricordato John Stuart Mill (1806-1873), filosofo ed economista inglese, studioso di un particolare capitolo delle forme economiche, quelle espresse dall’utilitarismo. 

L’utilitarismo, in estrema sintesi, è una dottrina che elabora i modelli di comportamento che guidano le scelte individuali.
Di per sé le tesi sull’utilitarismo sono molto antiche, si possono far risalire a Epicuro, vale a dire, al quarto secolo circa prima dell’era comune.

L’utilitarismo elaborato da Mill tende a legare il bene con l’utile e a trasformare l’etica e le forme della morale, in una scienza della condotta umana.

Mill in Inghilterra è ricordato con simpatia, soprattutto dalle femministe, perché fu uno strenuo partigiano del diritto delle donne al voto.

 

Sempre per restare nell’ambito dell’utilitarismo inglese ricordiamo un altro suo padre nobile,  Jeremy Bentham (1748-1832).

Bentham è un filosofo riformatore fautore, in sede politica e legislativa, di un grande disegno organico di riforme sociali fondate sull’equità per tutti.
Questo filosofo è conosciuto nei paesi di lingua inglese come il filosofo della felicità, per aver posto questo sentimento a guida e a motore dell’azione degli uomini.
Le sue tesi possono essere riassunte in questo principio: Il dovere dei legislatori, vale a dire dei parlamenti e dei governi, è quello di assicurare il massimo della felicità possibile al maggior numero possibile di individui. 

Va ricordato che la parola felicità compare come un diritto inalienabile dei cittadini insieme alla vita e alla libertà nella Dichiarazione d’Indipendenza Americana del 4 luglio 1776. 

È una prova indiretta della popolarità delle tesi di Bentham (quando era ancora in vita) nell’area dei paesi di lingua inglese. 

 

Tornando a Mill.
Per questo filosofo la sola conoscenza possibile è quella empirica e è il metodo della logica che deve guidarla.

Cioè, un metodo per creare inferenze (l’inferenza in logica è un processo per trarre conclusioni dai fatti presi in esame) fondato sull’induzione e la deduzione e, in sub-ordine, sull’abduzione (che è una sorte di sillogismo debole), improntato ad un certo realismo metodologico.
Temi che Mill affronta in un libro famoso, intitolato Sistema della logica deduttiva e induttiva, uscito a Londra nel 1843.

 

Spostiamo ora il nostro punto di vista.

Nelle cosiddette società primitive o tribali non esisteva il problema di dover conoscere e riflettere sui fondamenti dell’ordine sociale.
I rapporti interpersonali all’interno di queste comunità erano basati principalmente sui vincoli di sangue, di latte, di parentela e, non da ultimo, su legami di natura magica o sacra.

 

Erano società semplici, con strutture organizzative elementari, poco dinamiche, con scambi e contatti ridotti con le altre realtà sociali esterne ad esse, spesso improntati a una certa conflittualità.

Tutto ciò però andò in crisi soprattutto per due circostanze

 

La crescita demografica – che si ebbe grazie alla diffusione delle culture cerealicole a cominciare da quella regione che oggi viene definita della “mezzaluna fertile” e che corrisponde grossomodo al Medio-Oriente – e, di riflesso, con la nuova complessità sociale che questo comportò.  E con il diffondersi dei commerci, dei viaggi e dei trasporti, che fecero collassare le obsolete strutture di tipo ancestrale.

Nella storia dell’uomo la cosiddetta svolta cerealicola anticipa la nascita delle città.  Fece aumentare i tassi di natalità e stabilizzò i nuclei familiari che poterono contare sulla certezza di potersi nutrirsi. 

Sulle conseguenze di tutto ciò ci sono gli studi di un urbanista e sociologo americano, Lewis Mumford (1895-1990) che concepì l’urbanistica come una sintesi delle scienze sociali a cui affidare l’organizzazione della società. 

Di Mumford consigliamo, tra le decine di libri e saggi che ha scritto, perlomeno la lettura  del suo libro più famoso La città nella storia, del 1961, in tre volumi.

 

Questo collasso gli storici lo fanno risalire, per quanto riguarda l’area del Mediterraneo, al settimo/sesto secolo prima dell’era comune, a partire dalla Grecia, che allora esprimeva il modello di società più evoluta.
Sono gli anni che vedono nascere la forma della cittàstato, delle polis.
Città che, sia pure in forma embrionale, hanno inventato e sviluppato al loro interno delle configurazioni sociali complesse, in continuo movimento e spesso concorrenti tra di loro.

 

Da un punto di vista funzionale, in queste cittàstato l’organizzazione comunitaria cominciò a formarsi faticosamente intorno a due temi chiave contrapposti, della solidarietà sociale e dell’interesse economico.
La considerazione più importante è che queste micro-società diventarono con il tempo dinamiche, improntate, cioè, a un costante mutamento. 

Le società primitive erano invece società statiche, lente, fondate su valori considerati sacri, che si ritenevano divini, eterni e indiscutibili.
La città-stato greca, invece, è estremamente articolata, fluida e in qualche misura laica.


Il numero di Dunbar. 

Robin Ian McDonald Dunbar è un antropologo inglese, specialista di psicologia evolutiva e studioso del comportamento dei primati.  Insegna ad Oxford.

A lui si deve la formulazione di questa legge empirica (1990) che va sotto il nome di Numero di Dunbar.  Che cosa rappresenta questo numero?

Il limite teorico di persone con le quali un qualsiasi soggetto può mantenere e coltivare stabili rapporti sociali.  

Oltre questo limite per mantenere stabile una comunità di rapporti occorre che i soggetti siano coinvolti tra di loro, per esempio, da disposizioni normative di natura restrittiva, come avviene nelle forze armate o nei collegi.

L’oscillazione di questo numero può sembrare grande perché va da cento a duecentotrenta persone, tuttavia è intorno a centocinquanta che si ha il picco dei casi.

 

Dunbar, successivamente, ipotizzò che questo numero è direttamente legato alle dimensioni della neocorteccia o, meglio, alla capacità di elaborazione neocorticale dei soggetti.

 

Se immaginassimo questo numero come un’area vedremmo che al centro ci sono le relazioni che abbiamo in questo momento e alla periferia le persone che abbiamo perso di vista crescendo o cambiando il nostro stile di vita.

 

Come ha fatto Dunbar ad elaborare questa legge empirica?

Studiando il comportamento degli scimpanzé e la loro attività sociale principale, il grooming, un termine inglese che indica l’attività per mantenersi puliti, cioè, lo spulciarsi reciproco degli scimpanzé.

Il grooming rappresenta una pratica collettiva che si esegue seguendo precise norme di comportamento condiviso, perché oltre a mantenere il corpo libero dai parassiti rafforza le strutture sociali, facilita la sessualità e concorre alla soluzione delle dispute.   

Lavorando sul campo con una colonia di scimpanzé Dunbar si rese conto che all’interno di essa c’erano diversi gruppi che praticavano tra di loro il grooming, ma un fatto lo incuriosì, i membri di ogni gruppo potevano anche cambiare, ma non il loro numero che si manteneva stabile.

 

Decise di verificare se anche per gli uomini succede qualcosa di simile.

Per farlo studiò lo sviluppo della società umana dal neolitico ai nostri giorni e il modo di formarsi delle comunità sociali, soprattutto dal punto di vista della loro grandezza.

Ne dedusse che a prescindere dalla circostanze c’era una tendenza in esse ad oscillare intorno ai centocinquanta individui e abbozzò anche una similitudine tra il grooming degli scimpanzé e il linguaggio dei gruppi umani inteso come uno strumento di pulizia sociale.

Vale a dire come un mezzo per mantenere coesa la comunità riducendo al minimo la necessità di un’intimità fisica e sociale.  Una circostanza che tra l’altro favorisce lo sviluppo dell’individualità non conflittuale.  

 

In altre parole, il limite di centocinquanta rappresenta la soglia numerica entro la quale è possibile dare spazio e porre in essere rapporti interpersonali e conoscitivi che consentano di conoscere chi è una data persona e come interagisce socialmente verso ogni altra persona della comunità.

Come ogni legge empirica la si può verificare.

Partite da un individuo e dalla sua famiglia, sommate il cerchio dei parenti diretti e indiretti, degli amici, dei conoscenti.  Aggiungeteci le persone che incontra con una certa frequenza, il portinaio, il panettiere, il giornalaio, il medico, poi la sfera delle conoscenze passate che sono rimaste vive nella sua memoria ed avrete il suo numero di Dunbar.

L’eventuale scarto per arrivare a centocinquanta esprime il numero delle conoscenze con le quali il soggetto svilupperebbe nuovi rapporti di interazione o di collaborazione se ne avesse l’occasione.

Se invece il numero è superiore a centocinquanta il soggetto in questione, stante così le cose, difficilmente allargherà le sue conoscenze.

 

Questo numero sarebbe rimasto confinato nei testi universitari se non avesse attirato l’attenzione dei programmatori di software sociali, che incominciarono a tenerlo presente per valutare la dimensione delle reti sociali.

Oggi, per esempio, è tenuto in considerazione in campo militare, nelle aziende, negli organismi pubblici e nelle università.  Viene regolarmente usato nello studio della comunità di Internet, di Facebook e di MySpace.

 

Connesso al numero di Dunbar c’è:

La teoria dei sei gradi di separazione.

Da molti anni a questa parte è la legge empirica che ha sollevato in rete le polemiche più aspre e i dibattiti più strampalati.

C’è chi la considera assolutamente attendibile e chi le nega ogni attendibilità, soprattutto ha colpito l’immaginario di matematici, psicologi, scrittori e cineasti a cominciare dal film Six degrees of separation, del 1993, con la regia di Fred Schepisi e la partecipazione di Donald Sutherland.  Tratto da una commedia teatrale di John Guare.

Andiamo con ordine.

È stato lo psicologo americano Stanley Milgram (1933-1984) ad elaborare nel 1967 questa teoria detta dei sei gradi di separazione, secondo la quale sulla terra ogni essere umano è separato da un altro essere umano da un massimo di sei passaggi di conoscenza diretta.

In teoria conoscere Angelina Jolie, Brad Pitt o Barack Obama è più facile di quanto uno non immagini.

Secondo Milgram se tu conosci qualcuno, che conosce qualcuno, che conosce qualcuno…entro sei contatti arrivi a conoscere chi vuoi.

Naturalmente Milgram non si è limitato ad enunciarla, l’ha dimostrata più volte sperimentalmente, anche se molti in passato hanno messo in dubbio i suoi risultati.

Le ragioni del dubbio non sono sempre scientifiche considerato che questo psicologo di origine ebraica in tutta la sua carriera accademica ha sempre cercato di dimostrare le radici oscure e gli intrecci perversi tra ogni forma di potere e di ubbidienza.

 

In ogni modo, il primo esperimento dimostrò come un gruppo di studenti del Nebraska fosse in grado di venire in contatto con degli sconosciuti, nello stato del Massachusetts, scelti a caso.

Tutto ha inizio a partire da due circostanze.

– Una tesi elaborata a livello letterario nel 1929 dallo scrittore ungherese Frigyes Karinthy e contenuta nel suo racconto “Catene”.

– Una ricerca di alcuni ricercatori del MIT, degli anni ’50 del secolo scorso tesa ad elaborare una risposta a questa domanda a cavallo tra le scienze sociali e le ricerche di mercato: Dato un insieme di persone qual è la probabilità che ognuna di queste persone sia connessa ad un’altra attraverso un certo numero di collegamenti? 

In quegl’anni furono avanzate molte ipotesi, ma nessuna soddisfacente.

 

Nel 1967, Milgram, che si era interessato a molte ricerche intorno al tema dell’interazione sociale, trovò un sistema per verificare una sua teoria che definì “teoria del mondo piccolo”.

Milgram selezionò a caso un gruppo di abitanti del Midwest e chiese a ciascuno di loro di mandare un pacchetto ad un estraneo che abitava nel Massachusetts, vale a dire a diverse migliaia di chilometri di distanza.

Ognuno di costoro conosceva il nome del destinatario, la sua occupazione, e la zona in cui risiedeva, ma non l’indirizzo preciso. 

In pratica fu spiegato a ciascuno dei partecipanti all’esperimento di spedire il proprio pacchetto a una persona conosciuta, che a loro giudizio avesse il maggior numero di possibilità di conoscere il destinatario finale.

Quella persona avrebbe poi fatto lo stesso con un’altra persona di sua conoscenza e così via fino a che il pacchetto non venisse personalmente consegnato al destinatario finale.

Tutti si aspettavano che la catena dovesse includere decine di intermediari, invece ci vollero in media solo tra i cinque e i sette passaggi per far arrivare il pacchetto al destinatario finale.

Questo esperimento di Milgram fu poi pubblicato in Psycology today e da qui nacque l’espressione di sei gradi di separazione.

In termini matematici questa teoria non è difficile da spiegare.

Se supponete di conoscere diciamo un centinaio di persone che a loro volta ne conoscono un centinaio, e questi un altro centinaio, eccetera, voi vedete che cento alla sesta è un numero molto vicino al numero degli abitanti della terra.

Con il diffondersi dell’informatica, poi, questa teoria è divenuta sempre più famosa ed ha trovato numerose applicazioni.

Ma perché questa teoria è importante a parte riuscire a conoscere Angelina Jolie?

Perché, tralasciando il numero dei passaggi che è puramente convenzionale, questa teoria ci consente di studiare le relazioni tra le persone come se fossero una rete e, dunque, di costruire degli importanti modelli, per esempio nell’ambito delle ricerche epidemiologiche, in particolare nella diffusione delle malattie infettive, così come in campi più frivoli com’è lo studio sulla diffusione dei messaggi pubblicitari.

 

Per chi è interessato a questi temi suggeriamo la lettura di: Albert-László Parabasi, Link. La scienza delle reti, Torino, 2004.  E di Mark Buchanan, Nexus, Milano, 2003.

Un ultima osservazione.

Molti di voi frequentano i “social network”, ma pochi ricordano che il primo network, o meglio il primo servizio online a includere la possibilità di creare uno spazio virtuale in cui realizzare il proprio profilo e di poter avere una rete con la quale comunicare, è stato Sixdegrees.com., creato nel 1997 e chiuso nel 2001.

Quando fu chiuso aveva un milione di utenti, un successo, ma non produceva reddito.

L’obiettivo di questo sito era di realizzare un luogo d’incontri facile da usare e non manipolabile, ma aveva un inconveniente nonostante s’ispirasse alla teoria del piccolo mondo di Milgram non consentiva che due soli gradi di separazione, gli amici e gli amici degli amici.

 

Oggi si dovrebbe dire quattro gradi e cinquanta circa di separazione, se sono corrette le argomentazioni di due professori dell’Università Statale di Milano che lavorano nel laboratorio di Web Algorithmics del Dipartimento di scienze dell’informazione, che hanno collaborato ad una ricerca sul teorema di Milgram con l’università di Palo Alto, in California e con Mark Zuckerberg, l’ideatore di Facebook.

Il tema centrale di questa nuova ricerca, che ha interessato sia il web che i mass-media cartacei, è stato quello di verificare come le relazioni interpersonali cambiano con la digitalizzazione.

 

I due ricercatori milanesi hanno applicato la teoria del mondo piccolo di Milgram ai settecento milioni e passa di utenti attivi sul social network di Mark Zuckerberg  per un totale di circa settanta miliardi di relazioni.

Il risultato è stato che la distanza media tra due persone è pari a 4,74. 

In altre parole il mondo si è ulteriormente rimpicciolito rispetto alle prime ricerche di Milgram.

Se poi si restringe l’ambito della ricerca ad una sola nazione – che rappresenta mediamente l’84 per cento delle amicizie – si può scendere fino a tre gradi di separazione, cioè a quattro passaggi.

 

Per concludere, legando questi risultati al numero di Dunbar, si osserva che la maggior parte dei contatti in Facebook e con persone della nostra età anche se mediamente il numero di amici è intorno a 190 per il cinquanta per cento degli utenti si ferma intorno a 100.

 

È un classico paradosso della rete che tecnicamente s’iscrive nell’ambito dei contanti da rimbalzo, ma che è sintetizzato dalla formula: gli amici degli amici sono più dei nostri amici.
Quando abbiamo cominciato a parlare dei sei gradi di separazione la domanda provocatoria era:  Volete conoscere Angelina Jolie o Brad Pitt? 

Oggi in questo contesto è tutto cambiato.

Se siete seduti in bar di un aeroporto oppure, se siete sul marciapiede di una stazione in attesa di un treno, molto probabilmente una delle persone che vi stanno accanto conosce un vostro amico o un amico di un amico dei vostri amici.  


Dalla polis è poi derivata la politikà, la scienza degli affari pubblici, la politica, che qui possiamo definire come l’insieme dei problemi che riguardano la polis dal punto di vista dell’esercizio del potere nel quadro della forma di Stato. 
Problemi che, nella sostanza, erano la conseguenza e il riflesso di due preoccupazioni principali.
Elaborare nuove forme di legittimazione e di delega per coloro che dovevano guidare la polis, in pratica, esercitarne il governoÈ il cosiddetto tema della rappresentanza.

Trovare e definire quelle regole che, se osservate da tutti, garantiscono la pace sociale e fanno prosperare il cosiddetto bene comune.   

 

Per andare avanti velocemente diciamo che è dallo sviluppo di queste considerazioni che ha origine la teoria contrattualistica della società.
Ne fu uno degli artefici principali un filosofo inglese, Thomas Hobbes (1588-1679).
Il punto di partenza di questa teoria è che il mondo dell’agire umano è retto da leggi analoghe a quelle dell’ordine naturale.
In questo modo, pensava Hobbes, si può arrivare a sviluppare una scienza della società umana che ha la stessa oggettività delle scienze esatte, come la geometria o la fisica, considerazione da cui deriva il convincimento che la società e il potere politico non sono affatto naturali per l’uomo, ma costituiscono una convenzione (un compromesso) per mettere fine allo stato d’insicurezza permanente che caratterizza lo stato di natura.

 

Per Hobbes le origini della società sono fondate su un patto, su di una specie di contratto liberamente sottoscritto, e, attraverso la rappresentanza politica, condiviso dai cittadini i quali, per sottrarsi al disordine dello stato di natura come stato a-sociale, caratterizzato dalla lotta di tutti contro tutti (homo homini lupus), avrebbero convenuto (come male minore) di sottoporsi al governo di un sovrano assoluto.

Appare – come qui è esposta – una teoria semplicistica, ma non va sottovalutata, soprattutto alla luce delle implicazioni che ha avuto nel suo tempo.

 

Vediamo le due principali.
Pensata in questo modo la società diventa una costruzione storica, un prodotto convenzionale privo di una sua necessità ontologica (a limite anche teleologica) o di un destino, cioè, di “un dover essere così”…per esempio, per volere di Dio o di un ente superiore.

 

Poi, come sosterranno le correnti illuministiche settecentesche, se la società scaturisce da un patto tra gli uomini, questo patto si può anche rivedere e, magari, riformulare più o meno radicalmente.
Nulla esclude, poi, che la revisione di questo patto possa avvenire anche con una rivoluzione, come sogneranno molti uomini dell’Ottocento europeo e tutti i movimenti riformatori d’ispirazione socialista.


Una nota su Montesquieu.

Ricordiamo questo grande personaggio della storia europea (subito dopo Hobbes) perché è stato il primo a formulare la teoria della divisione dei poteri. 

Con Hobbes rappresenta il fondatore della dottrina politica moderna. 

Charles-Louis de Secondat barone di La Brède e di Montesquieu (1689-1755) fu un grande filosofo e saggista francese.

Viaggiò per alcuni anni in molte parti d’Europa, tornato in Francia cominciò a lavorare alla sua opera maggiore, De l’esprit des lois, che fu pubblicata a Ginevra nel 1748.

 

Dal 1718 al 1721 si dedicò a ricerche scientifiche di fisica e storia naturale, e nello stesso tempo preparò le Lettres persanes, che uscirono anonime a Amsterdam nel 1721, in cui tratta molti motivi tipici del suo pensiero come la polemica contro le dispute religiose e l’intolleranza, la funzione morale e sociale della religione, il rifiuto del dispotismo, la difesa dei parlamenti come garanzia di libertà.

“Molte cose – egli scrive nell’Esprit des lois – guidano gli uomini: il clima, la religione, le leggi, le massime di governo, le tradizioni, i costumi, le usanze: donde si forma uno spirito generale, che ne è il risultato”.

La sua ispirazione razionalista si ritrova nella distinzione dei tre tipi di governo possibile: repubblicano, monarchico, dispotico.

Il governo repubblicano, poi, può essere democratico o aristocratico.

L’aristocrazia comprende la distinzione tra nobili e popolo: i nobili formano un corpo con proprî interessi, che reprime il popolo.

Ma sorge il problema dell’osservanza delle leggi da parte degli stessi nobili.

Le vie sono due: o quella di una grande virtù, o quella di una virtù minore, che è la moderazione.

Nel primo caso i nobili diventano eguali al popolo ed eventualmente formano una “grande repubblica”, cioè una democrazia, nel secondo caso, ossia con la moderazione, i nobili si rendono eguali fra loro, e ciò determina la loro conservazione, la moderazione è dunque l’anima del governo, appartiene a uno solo, ma nella monarchia il governo è saggio e temperato, nel dispotismo si ha al contrario il puro arbitrio, la forza bruta.

La monarchia si fonda sull’onore, il dispotismo sulla paura.

Ciascuna forma di governo presuppone dunque determinate condizioni; l’importante è che il governo non sia dispotico, che cioè la libertà del singolo sia garantita, intendendosi per libertà sicurezza della propria persona e dei proprî beni.


Il Settecento, come abbiamo detto fu il secolo dell’Illuminismo e degli enciclopedisti francesi che raccolsero e svilupparono l’eredità dell’empirismo inglese.

L’Illuminismo è un movimento di idee caratterizzato dalla convinzione di poter risolvere i problemi della società con i soli lumi della ragione e a dispetto di ogni rivelazione religiosa o di ogni tradizione.    

 

È il secolo di Diderot, D’Alembert, Rousseau, Helvétius, Voltaire e dei primi filosofi materialisti come Paul-Henry barone d’Holbach.

 

Proviamo adesso, ad intrecciare la domanda relativa a quando è nata la sociologia con quella che s’interroga sulle ragioni della sua comparsa, perché è essenziale capire, prima di procedere oltre, il motivo per il quale la sociologia e, in generale, tutte le scienze sociali e/o empiriche (o prasseologiche) hanno avuto la loro culla nel corso dell’Ottocento. 

 

Sono scienze che nel loro specifico campo di studi, ereditano, sia pure in misura diversa, il patrimonio della filosofia classica e in un certo modo, i suoi progetti.

 

Nel complesso esse rappresentano il tentativo di reagire ad una crisi di portata epocale, la crisi della metafisica, cioè, di quel discorso ideale sulle cose del mondo che si pone oltre la fisica e oltre gli aspetti materiali della mondanità.
Questa crisi della conoscenza corre parallela alla nascita dell’idea di modernità che, per convenzione, la maggior parte degli storici fa risalire alla Rivoluzione francese, vale a dire al 1789.

Il concetto di modernità appare per la prima volta in un testo di Honoré de Balzac (1799-1850) per indicare la presa di coscienza della singolarità dell’epoca, in materia letteraria ed artistica, in rapporto al passato.
Per estensione è diventata il carattere proprio di un mondo, una società, un’epoca che sa che il passato non rinvia più a nulla.  
Certi storici fanno risalire la modernità, come coscienza di un cambiamento irreversibile delle cose, al Rinascimento, altri al XVIII secolo, cioè all’Illuminismo, altri ancora alla rivoluzione industriale del XIX secolo. 
La data del 1789, quella della Rivoluzione Francese, è la più condivisa e, in qualche modo, la più suggestiva. 

Il concetto di modernità non è precisamente datato, ma cambia secondo l’ottica con il quale lo si affronta.

 

C’è però un idea di modernità molto popolare che interessa questo corso di studi. È quella che riguarda il mondo delle arti. . 

Nasce in Francia con il Secondo Impero (1852-1870) e si oppone all’arte accademica – in seguito definito stile pompier –  un arte indipendente che si proclama realista e che conosciamo meglio nella sua evoluzione impressionista.   

In nome della modernità, come sappiamo, il realismo opera una serie di rotture. 

In politica con il radicalismo, perché i pittori realisti o naturalisti sono repubblicani e si oppongono ai disegni imperiali di Napoleone III. 

Nell’estetica, perché questi artisti detestano le grandi scenografie mitologiche e le maestose mitografie dei pittori accademici, rivendicando la bellezza semplice della natura. 

Nell’ambito della questione sociale, perché essi provengono – salvo qualche eccezione- dal  mondo popolare, difendono la democrazia e detestano l’aristocrazia al potere. 

Perfino nel modo di pensare l’ambiente, rivalutando la campagna contro il moltiplicarsi degli appetiti dell’industria e del capitale che sta cambiando la geografia del territorio. 

 

En passant.  Qualche tempo fa un sociologo di origini polacche, Zygmunt Bauman ha introdotto il concetto di  modernità liquida  (il saggio omonimo Liquid Modernity è del 2000, la traduzione italiana del 2006) nel tentativo di spiegare la post-modernità

Questa modernità liquida è una metafora di quel potere che è capace di dissolvere le tradizioni, le istituzioni e perfino la stessa morale, tipico del capitalismo globalizzato.    

Si caratterizza per l’impossibilità degl’uomini di individuare dei punti di riferimento stabili – necessari  alla costruzione di una propria identità sociale – e nell’ansia che ne consegue, che s’invera nel concetto di precarietà economica e dei valori morali.    

 

La crisi della conoscenza classica si colloca tra la fine del Settecento e l’inizio dell’Ottocento.

Sono gli anni in cui si conclude anche la parabola dell’Illuminismo, che aveva mostrato come il mondo che abitiamo fosse più complesso di quello che sembrava e ancora per buona parte inspiegabile.

Una inspiegabilità che metteva in luce come, con il proseguire della conoscenza sperimentale, tutte le idee semplici ed astratte e tutte le invocazioni della fede religiosa non servissero più a nulla.
Questa crisi, che inizia con il dissolvimento del pensiero della metafisica, può anche essere interpretata come una crisi dell’idealismo e delle sue speranze e un grande impulso a rivalutare i fatti e le loro logiche.
In altre parole, con la Rivoluzione francese giorno dopo giorno l’antico affresco del mondo che era stato dipinto a cominciare dalla filosofia greca va in pezzi dando vita a tutta una serie di tentativi per porvi rimedio.

Generalmente si chiamano conservatori o reazionari gli sforzi impiegati a ricomporlo e progressisti o rivoluzionari quelli impiegati per approdare a nuovi e più avanzati equilibri.   

 

Ma, c’è anche un fatto nuovo, decisivo per il mondo Occidentale, l’avanzare prepotente in tutti i campi della vita corrente, dagli affari alla politica, dalla morale al governo delle nazioni, di una nuova classe sociale, quella che aveva vinto la Rivoluzione francese e che adesso esigeva che le venissero riconosciuti quei diritti per i quali aveva preso le armi: la borghesia.   

 

Il 14 luglio 1789 il popolo di Parigi prende d’assalto la Bastiglia, ma nel suo diario Luigi XVI, quello stesso giorno scrive una sola parola: Rien. 

 

Siccome le idee non cascano dal cielo, ma si formano e si sviluppano tra gli uomini, una tale rottura epocale – che questo aneddoto descrive in modo vivido e che da vita alla modernità e a tutte le sue convulsioni – è soprattutto l’effetto di questa nuova classe in ascesa.

La sociologia, dunque, come scienza della società, non poteva nascere in un altro momento. 

 

Questa disciplina era funzionale ad un nuovo modo di vedere il mondo, rispondeva alle aspettative di una classe sociale alla ricerca di un’identità all’altezza della sua storia, fino al punto che non solo ne esprimeva i suoi caratteri, ma arrivava a rafforzarla nelle sue consapevolezze e nelle sue determinazioni e, in prospettiva, nei suoi errori.  

 

La sociologia, soprattutto all’inizio, ha poi contribuito a diffondere, perlomeno tra le classi dominanti, due grandi miti dell’Ottocento:

 

il mito della tecnica, più specificatamente, della macchina.

– il mito del progresso (o, dell’idea di progresso), come speranza di un futuro radioso per un numero d’individui sempre più numeroso.

Questo secondo mito rappresenta una piena fiducia nell’avanzamento continuo e instancabile della scienza e con essa delle condizioni materiali e spirituali dell’umanità.

 

Abbiamo visto sia pure di corsa come il positivismo abbia in qualche modo orientato, nel corso dell’Ottocento, le principali ricerche intorno al tema della società e delle sue leggi.

Lo ha fatto mentre alle sue spalle si scolorivano e si dissolvevano le strutture e i valori tradizionali dell’Ancien Régime. 
È il contesto nel quale maturarono molte ricerche e si aprirono, spesso in modo esagitato, confronti e dibattiti su concetti, teorie o riflessioni che oggi appaiono popolari, ma che allora, soprattutto agl’occhi dei conservatori e del popolino, sembravano irriverenti, improponibili, blasfemi o addirittura intoccabili.

 

Per esempio:

Si cominciarono ad affrontare i temi del rispetto culturale dell’Altro, come individuo, e dei popoli come una forma sociale d’identità d’accettare e comprendere.

 

Della cooperazione internazionale come strumento per un sentire comune delle differenze culturali, sociali e politiche.

 

Si cominciò a sviluppare l’idea di nazione e di solidarietà sociale.

 

Si diffuse il principio dell’assistenza agli indigenti e ai malati, l’idea di consenso come base di ogni democrazia, la pratica del suffragio elettorale per eleggere i parlamenti.

 

Si cominciò a riconoscere il diritto al voto delle donne.

Molti paesi introdussero il divorzio che, implicitamente, trasformava il matrimonio da sacramento divino a semplice contratto tra un uomo e una donna.

 

Si cominciò a riflettere sul controllo delle nascite.

 

Sono in buona sostanza temi che oggi costituiscono (o, dovrebbero costituire) la spina dorsale delle democrazie occidentali.

 

Abbiamo visto come con la modernità i temi che dominano il mondo siano cambiati radicalmente.

Oggi si parla di società contemporanea.
Secondo i sociologi e i politologi questa società si caratterizza per almeno tre aspetti:

– Una spinta globale all’interconnessione attraverso dei sistemi di rete sempre più estesi all’intero pianeta.

– Una evoluzione degli stili di vita sempre più rapidi e profondi che sono, per la prima volta nella storia dell’uomo direttamente legati all’innovazione tecnologica.

– Una trasformazione dell’ambiente e dell’habitat di un’ampiezza senza precedenti dovuta a dei fattori evolutivi di natura sociale, culturale, economica e tecnologica.

 

Quello che più conta, però, è un’altra cosa ancora.
Si stima che questi mutamenti siano di natura irreversibile e che coinvolgano direttamente tutti, sia pure in modi differenti, a partire dal quotidiano, cioè, dal nostro modo di concepire la convivenza umana. 


Veniamo, adesso, ad un protagonista del pensiero positivista, Emile Durkheim (1858-1917), considerato il fondatore della moderna sociologia.


Emile Durkheim nasce a Epinal (Francia) da una famiglia ebrea nel 1858.

Avendo rifiutato di diventare rabbino, entra alla Scuola Normale Superiore nel 1879, è compagno di studi di  Jaurès, Bergson, Janet, Blondel.  

Repubblicano, sostenitore di un ideale d’universalismo laico, Durkheim vuole contribuire con l’insegnamento e la ricerca alla ricostruzione sociale e morale della Francia ancora lacerata dalla sconfitta di Sedan del 1870 e dagli eventi che seguirono (occupazione prussiana, Comune di Parigi e sua repressione).  

Nel 1882, avvia alcune ricerche sulla divisione del lavoro sociale e su Montesquieu. 

Viaggia in Germania, dove studia lo sviluppo delle scienze umane e sociali e prende atto dei loro progressi, nel 1887, inaugura a Bordeaux la cattedra di scienza sociale e di pedagogia.  

Nei suoi corsi tratta della solidarietà sociale, del suicidio, della fisiologia del diritto e dei costumi, del fatto morale e religioso, delle strutture educative e delle dottrine pedagogiche.

Raccoglie attorno a sé un gruppo di discepoli e di collaboratori (suo nipote M. Mauss, R. Hertz, F. Simiand, e Maurice Halbwachs che elaborò una teoria sulla memoria collettiva) e fonda l’Année sociologique (1896).  

Nel 1902, diventa titolare della cattedra di scienza dell’educazione alla Sorbona, che, nel 1913, prenderà il nome di  cattedra di educazione e sociologia.  

Al di là dell’ambito prettamente accademico, le tesi durkheimiane si diffusero in Francia, in ambito storico (scuola delle Annales ), linguistico (Ferdinand de Saussure) ed etnologico grazie a Marcel Mauss.  Furono introdotte nei paesi anglosassoni da R. Radcliffe-Brown (scuola di Chicago) e B.  Malinowski (Gran Bretagna). 

 Le teorie di Durkheim hanno conosciuto un rinato interesse a partire degli anni ’50 del Novecento, soprattutto per via del  suo rifiuto dello psicologismo e  per i suoi lavori di sociologia della conoscenza. 


In particolare, Durkheim riuscì a conciliare la sociologia con l’antropologia culturale, studiando le società primitive e le forme religiose.

In questo senso il tema dominante del suo lavoro fu la società considerata come una realtà sui generis, che trascende gli individui da cui è composta.

Durkheim per spiegarlo ricorre alla metallurgia, una tecnologia che nell’Ottocento sembrava essere l’essenza stessa dell’idea di progresso.

”La durezza del bronzo non si trova né nel rame né nello stagno che sono serviti a formarlo, e che sono sostanze molli o flessibili.  Essa si trova nella loro mescolanza”.
In altri termini, la società detta le sue leggi dall’alto delle sue istituzioni e attraverso un processo coercitivo costante costringe i suoi membri a conformarsi alle sue regole.

La caratteristica principale della scuola sociologica francese da lui fondata fu quella di considerare i fenomeni sociali come fatti aventi una vita propria, cioè, un’esistenza indipendente dall’apporto delle singole coscienze degli individui.

Fatti capaci di esercitare una pressione costante sulla società. 

 

Ogni società è, per Durkheim, caratterizzata da una coscienza collettiva, ossia da un insieme di norme, credenze e sentimenti comuni alla media dei membri che la costituiscono.

 

Da questa coscienza collettiva ne discende il comportamento degli individui in società e lo strutturarsi del consenso sociale.
In breve, per questo autore, l’individuo è un prodotto della società e non viceversa, così ogni azione che compie l’individuo in società è il risultato di una coscienza che ci è superiore e dalla quale dipendiamo.

Vediamo in pratica queste tesi applicate ad un tema di costante interesse, il suicidio.


Da tempo sappiamo che il suicidio è la seconda causa di morte tra gli adolescenti, dopo gl’incidenti stradali. 

Secondo l’OMS ogni anno nel mondo il suicidio uccide come la malaria. 

Nel 2012, per coglierne la rilevanza, si sono uccise (il dato è in difetto) più di 800mila persone.  


Come accennato il tema centrale delle ricerche di questo studioso è sempre stato il rapporto, spesso problematico, tra l’individuo e la società. 

 

Il tema di uno dei suoi libri più importanti è quello sulla divisione sociale del lavoro, tuttavia, il suo studio più famoso, anche per la natura dell’argomento, rimane quello sul suicidio che pubblicò nel 1897.
In esso si riflettono anche tutte le problematiche di una società dominata dalla confusione ideologica, dall’instabilità politica e dalle incertezze economiche.

Ciò che rende questo lavoro importante sono soprattutto due motivi.
Un motivo di natura etica, perché Durkheim esamina il suicidio sotto l’aspetto di una disfunzione drammatica nel rapporto individuo-società.

 

Vale a dire, come la spia di una crisi nell’organizzazione sociale, affermando implicitamente che esistono sempre delle responsabilità nell’azione degli uomini che hanno degli effetti sul comportamento di altri uomini e della società nel suo insieme.
Come dire, in un certo senso, tutti siamo compromessi.

 

L’altro motivo è  che Durkheim, per difendere le sue tesi, non esitò a utilizzare i risultati di una scienza nascente, la statistica.
Con essi mise in luce il fatto che i tassi di suicidio mantengono, a livello statistico, valori costanti nel tempo e nei luoghi.
Da ciò ne dedusse che il suicidio non può non essere considerato come un fatto sociale.


Nella teoria di Émile Durkheim i fatti sociali costituiscono l’oggetto della ricerca sociologica.

È considerato fatto sociale “qualsiasi maniera di fare, fissata o meno, suscettibile di esercitare sull’individuo una costrizione esteriore o, anche, un modo di fare, che è generale di una data società pur possedendo una esistenza propria, indipendente dalle sue manifestazioni individuali”.

(Le Regole del Metodo Sociologico, 1895)


Sempre con l’ausilio delle tabelle statistiche Durkheim evidenziò come il suicidio varia in modo inversamente proporzionale al grado di socialità che l’individuo riesce a sviluppare vivendo in società.

Dunque si presenta come un fenomeno che prescinde per buona parte dalla psicologia individuale.
Un altro motivo importante è che con questo libro Durkheim sviluppa quella che oggi potremmo chiamare una metodologia della ricerca sociale.
In sostanza, Durkheim, individua per il suicidio due cause, a ciascuna delle quali sono riconducibili due tipi diversi di suicidio.  

 

In questo modo sono delineati quattro tipi di suicidio, a seconda della causa che lo scatena e del modo con cui essi si rapportano ai temi dell’integrazione e della regolazione sociale. 

Temi che coordinano il rapporto dell’individuo con la società.

 

In tutti e quattro i casi per Durkheim si constata una compromissione della società nella storia e nelle ragioni dell’individuo che in essa vive e che, in qualche misura, la rende co-responsabile del suo stile di vita e del suo agire.
Vediamo adesso un altro autore legato in qualche modo all’infanzia della sociologia e alla corrente positivista, Vilfredo Pareto, un ingegnere e economista italiano nato a Parigi nel 1848 e morto a Ginevra nel 1923.

E’ più conosciuto come sociologo, una disciplina a cui dedicò buona parte della sua vita.

 

Nei panni dell’economista, Pareto concepiva l’economia come una scienza che ha per oggetto le azioni logiche dell’uomo, quelle azioni che indirizzano consapevolmente ai mezzi obiettivamente adeguati per il raggiungimento dei fini desiderati.
Per Pareto l’individuo o, meglio, l’homo oeconomicus, è guidato dai fini, cioè, dai sui gusti, dalla sua educazione, dalle sue mete e esso agisce quasi sempre entro degli ambiti determinati dai mezzi e dalle disponibilità.

 

Partendo da un modello di tipo meccanicistico dell’equilibrio economico generale, la sua analisi sociologica si proponeva di trovare le condizioni che assicurano l’equilibrio del sistema sociale.

Ma siccome, di fatto, nessun sistema sociale è costituito solo da azioni logiche, Pareto introdusse nelle sue riflessioni anche le cosiddette azioni non-logiche.
In altri termini, egli arrivò alla conclusione che l’uomo non ha sempre una grande consapevolezza di ciò che fa ed è proprio questo che inceppa il meccanismo di realizzazione dei fini.
C’è anche da sottolineare, secondo Pareto, il fatto che l’individuo sociale, pur agendo in modo non-logico, cosa che lo fa assomigliare alla specie animale, rispetto a quest’ultima presenta la caratteristica di accompagnare i propri comportamenti con delle formulazioni verbali la cui funzione è quella di fornire un motivo tra virgolette logico del comportamento stesso.


È una tesi non del tutto vera.  La moderna etologia – cioè la scienza che studia il comportamento animale nel suo ambiente – afferma che gli animali lungi dall’essere irrazionali sono fin troppo prigionieri delle finalità che li guidano, finalità che sono assolutamente funzionali alla specie a cui appartengono e che rappresentano il loro modo di essere razionali.

 Semmai non sono logici dal punto di vista della nostra logica. 


Compito della sociologia, dunque, è di spiegare quali sono le costanti del comportamento sociale non-logico e quali sono le caratteristiche e la funzione del discorso sociale.

 

Ma cosa sono le azioni non-logiche?
Sono le azioni in cui i processi induttivi e deduttivi sono alterati da errori di giudizio.
Questi errori sono in genere individuali, ma possono riguardare, e sono molto più gravi, anche gruppi d’individui o intere classi sociali.
È facile costatare come questo problema si è complicato con l’avvento dei sistemi mediali di comunicazione nei quali è riconosciuto un grande potere ai testimoni (in genere personaggi che appartengono al mondo delle élite) di influenzare le masse o, come si dice oggi, l’opinione pubblica e di manovrare i consumi, i costumi, la morale e i consensi politici.
Che cosa c’è di più illogico di comprare una determinata automobile perché ce lo suggerisce un giocatore di calcio, o un frigorifero perché ce lo propone una modella in biancheria intima?
Soprattutto, perché, a mente fredda ridiamo di queste cose e poi, al dunque, ne restiamo influenzati? 

Dall’analisi del pensiero di Pareto si deduce che egli considerasse come uno degli obiettivi principali della sociologia quello di analizzare ed interpretare quelle azioni e quei comportamenti collettivi che appaiono come irrazionali.

In sostanza, si può dire che, con le dovute approssimazioni, che sono azioni-non logiche quelle che sfuggono allo schema mezzi-fini.   
Per Pareto, dunque:  La scienza economica ci consente di conoscere il modo in cui operano gli individui in funzione dei fini che si danno. 
La sociologia ci permette di entrare nelle ragioni che impediscono loro di agire o di non raggiungere gli obiettivi che vorrebbero.  Più semplicemente, la sociologia ci consente di mettere in evidenza i determinismi sociali, che limitano l’autonomia degli individui. 

 

Per completare questa prima parte che, abbiamo visto, connette la storia della sociologia con le ragioni che l’hanno determinata e con i meccanismi cognitivi che la fanno funzionare, fermiamoci sul tema delle invarianze per meglio esaminare alcuni autori che se ne sono interessati.

 

Queste invarianze furono l’oggetto di discussione di un grande filosofo della politica, un tedesco, un berlinese, come si definiva, ancora oggi molto apprezzato come giurista e studioso di economia politica, oltre che sociologo, Max Weber (1864-1920).


Max Weber (1864-1920) Sociologo e storico tedesco. 

Weber si proponeva di studiare le azioni tipiche, le probabilità calcolabili nel comportamento degli uomini, non i valori soggettivi determinanti nella realtà le azioni; da qui la legittimità di una ricerca dei nessi mezzi-fine non in vista di un giudizio di valore sui fini stessi, ma in vista dell’adeguatezza dei mezzi per conseguirli. I suoi contributi principali in campo sociologico sono rappresentati dall’indagine sui rapporti tra forme religiose e forme economiche. 

 

Ancora oggi è di grande attualità la sua tanto discussa tesi che fa risalire la formazione dello spirito capitalistico (imprenditorialità razionale) all’influenza delle posizioni etiche calvinistiche che concepivano il lavoro come vocazione, ascesi intramondana.

 Tra le opere ricordiamo: Gesammelte politische Schriften (1921) e Wis­senschaftslehre (1922).


Per sintetizzare diciamo che l’obiettivo scientifico di Weber era quello di verificare se fosse possibile conciliare il capitalismo (come teoria economica) con la razionalizzazione delle forme sociali.

Weber, in breve, sosteneva che molte delle conclusioni che costituisco il corpo del discorso sociologico, non rappresentano delle verità, ma sono il frutto dei caratteri e dei criteri di ricerca che sono stati impiegati per studiare la società.

Per questo filosofo le teorie rappresentano le impalcature provvisorie per comprendere e catalogare i fatti.

Esse costituiscono una sorta di rifugio temporaneo alla conoscenza in attesa di potersi orientare nel contesto dei fatti empirici.

In questo senso, si può dire che Weber ha introdotto nelle scienze sociali la discussione sulla forma di teoria.

 

Nei suoi studi, soprattutto quelli del periodo del suo insegnamento ad Heidelberg, egli si fece promotore di una sociologia fondata sulla comprensione della realtà umana più che sulla spiegazione delle sue istituzioni oggettive.
D’accordo con Georg Simmel (1858-1918), un altro sociologo tedesco di estrazione filosofica, Weber in qualche modo difese il carattere relativo della cultura e mise in luce i rischi di una sua  razionalità esacerbata.
Una razionalità che per Weber tende inevitabilmente a diventare un carattere formale, carattere che possiede un suo naturale terreno di diffusione nelle forme della burocrazia considerata in tutti i suoi aspetti, dallo Stato alla famiglia.
Dunque la razionalità, per Weber, in determinate condizioni o in particolari momenti storici, può diventare impersonale, statica, ripetitiva e, alla fine, sostanzialmente repressiva rispetto alle esigenze di una  espressività spontanea o alla naturale imprevedibilità degli individui.

 

Ma da dove hanno origine queste contraddizioni?
Dai fatti.

Osserva Weber che nella società moderna spesso i mezzi tendono a subire una metamorfosi, a diventare dei fini.

Così, quelle che fino ad un certo momento sembravano delle architetture sociali, create per facilitare la vita corrente, si trasformano in congegni autonomi, astratti, autoritari. 

Diventano delle gabbie dalle quali è spesso difficile liberarsi o non essere oppressi.

 

Qui siamo di fronte ad uno dei grandi temi della sociologia, quello della libertà.

 

Non lo possiamo trattare in modo specifico, diciamo solo che per Weber spesso le competenze tendono a diventare normative a trasformarsi in punti di vista vincolanti.

 

In questo modo gli aspetti soggettivi della vita finiscono per essere preda di quelli oggettivi e le regole generali e formali concorrono a condizionare la routine soggettiva del vivere.

 

Veniamo brevemente ad un ultimo autore, Talcott Parsons (1902-1979), uno dei sociologi che più hanno contribuito a rinnovare la sociologia americana.


Talcott Parsons (1902-1979) è un sociologo statunitense.  Studiò alla London School of Economics e poi a Heidelberg. Iniziata la carriera accademica come economista, dal 1931 si dedicò esclusivamente alla sociologia, disciplina di cui divenne professore nel 1944 alla Harvard University. Fondatore dello struttural-funzionalismo, elaborò un’ambiziosa teoria della società, concepita come un sistema che, per durare, deve soddisfare quattro requisiti funzionali:

– conservare la propria identità nel tempo, definendo i confini con l’ambiente esterno,

– assicurare l’integrazione tra le sue parti,

– fissare i propri scopi,

– organizzare i mezzi per raggiungerli. 

A ogni funzione è preposto un particolare sottosistema (famiglia, religione ed educazione, diritto, politica ed economia). Tra le opere principali: The structure of social action (1937) e The social system (1951).


Il libro più importante di Parsons s’intitola: The Structure of Social Action, risale al 1937.
Il suo punto di vista è di tipo funzionalistico e la sua teoria, non per caso, è definita strutturalfunzionalistica

Parsons l’ha elaborata in questo modo nel tentativo di riuscire a coniugare le scienze sociali con le scienze dell’agire umano, cercando una sintesi tra le idee di Durkheim, Pareto e Weber.

 

Il funzionalismo come indica la parola è una dottrina delle scienze sociali che fa appello al concetto di funzione, cioè, predilige la ricerca delle condizioni in cui un determinato fenomeno si manifesta invece di esaurirsi nella ricerca delle sue cause in senso stretto.  

In parole semplici, la ricerca di Parsons privilegia l’analisi delle conseguenze piuttosto che delle cause di un insieme dato di fenomeni empirici.
Per Parsons la ricerca sistematica delle conseguenze va poi distinta anche da un’altra nozione delle scienze sociali, quella di scopo.
Lo scopo, infatti, ha a che fare con le motivazioni coscienti degli attori sociali, mentre l’analisi delle conseguenze tiene conto anche delle motivazioni non-coscienti, non volute o inconsce.

 

In sostanza, La struttura dell’azione sociale di Parsons, parte da un assunto di massima, che il comportamento individuale è il primo gradino di ogni ricerca sociologica, assolutamente necessario per arrivare a comprendere l’ordine sociale.

 

Alcune note sul concetto di cultura.

Prendiamo in considerazione adesso un concetto chiave degli studi sociologici, il concetto di cultura.

Prima di esaminarlo in dettaglio vediamo come l’UNESCO l’ha definita nella “Dichiarazione di Messico City” sulle politiche culturali del luglio-agosto 1982.
La cultura nel suo significato più ampio è considerata come l’insieme dei tratti distintivi, spirituali, materiali, intellettuali ed affettivi, che caratterizzano una società, un gruppo sociale o un individuo. 

Subordinata alla natura essa ingloba, oltre che l’ambiente, le arti e le lettere, i modi di vita, i diritti fondamentali dell’essere umano, i sistemi di valore, le tradizioni, le credenze (in buona sostanza le religioni) e le scienze.
Di fatto, a livello politico internazionale si è voluto riconoscere che ogni società umana possiede una propria cultura, che si distingue dalle altre.

 

Questa cultura deve saper ammettere l’esistenza delle altre culture e al limite accoglierle.

 

In questo ambito, il multiculturalismo è l’espressione di una speranza, che le culture siano riconosciute, s’incontrino, si mescolino, si misurino e, soprattutto, si trasformino e si evolvano.
Quello che è problematico è che in questa fase della mondializzazione nessuno sa ancora dire se questa evoluzione si muove verso una maggiore diversità, verso delle nuovediversità o verso unaomologazione più o meno importante.

 

 

 

La definizione di cultura nelle scienze sociali è sempre stata al centro di ampi dibattiti.

Il motivo è facile da comprendere, i suoi diversi significati non riflettono solo una diversa visione del concetto di cultura in sé, ma una differente valutazione della realtà.

 

Una delle prime definizioni di cultura che si allontana dal paradigma illuminista, cioè da una visione etnocentrica della prima antropologia, e sottolinea il carattere relativo della cultura, è quella di Edward Burnett Tylor (1832-1917) un antropologo inglese che nel 1871 definisce la cultura come il complesso che include le conoscenze, le credenze, l’arte, la morale, il diritto, le abitudini e gli oggetti materiali acquisiti dall’uomo come membro di una comunità.
I successivi sviluppi dell’antropologia (con Bronislaw Malinowski (1884-1942) un antropologo polacco naturalizzato inglese, Marcel Mauss (1872-1950) un sociologo eantropologo francese, il più famoso allievo (nonché nipote) di Durkheim, e Claude Lévi-Strauss (1908-2009) il fondatore dell’antropologia strutturale francese o, meglio, della sua corrente strutturalista, sottolineeranno ancora di più la dimensione relativista, evidenziando il fatto che solo immergendosi senza preconcetti nel tessuto culturale della comunità presa in esame, se ne possono comprendere i suoi significati.
Al centro del significato di cultura ha poi progressivamente guadagnato importanza da una parte il concetto di vita corrente (vale a dire dei ruoli, delle aspettative, delle credenze, dei miti, dei riti e di tutte le pratiche che strutturano l’agire quotidiano), dall’altra, la sua natura di congegno cognitivo per dare un significato al mondo e farne emergere le identità che lo compongono, pur nelle loro diversità.

Gli sviluppi più recenti degli studi sul concetto di cultura hanno poi posto l’attenzione sui limiti delle definizioni di natura statica, perché se da una parte sono in grado di descriverne l’aspetto, dall’altra acuiscono le differenze, facendo sembrare le culture delle entità astratte nelle quali risulta svalutato lo spazio delle autonomie individuali o dei piccoli gruppi.
James Clifford, un antropologo americano della corrente definita de-costruttivista (insegna storia della conoscenza in California) ha introdotto, sulla scia di queste critiche, l’ipotesi che la cultura non è un bagaglio di modelli definiti, ma un insieme di possibilità e vincoli che strutturano la realtà in un processo dinamico, che si nutre di una continua ibridazione anche con altre culture

.

In sostanza si è passati da una visione di cultura come “roots” (radici) ad una come “routes” (percorsi).
Un’altra definizione di cultura è quella elaborata dell’antropologo americano Clifford Geertz (1926-2006), il quale accomuna, per analogia, l’idea di cultura a una rete di significati che gli individui hanno creato e continuano a ricreare.

Una rete nella quale essi sono allo stesso tempo i protagonisti e i compromessi.
In sostanza si può asserire che la cultura è sempre stata al centro del discorso sociologico anche se l’interesse non è tanto verso la comparazione con le altre culture, ma piuttosto al ruolo che essa gioca all’interno del sistema sociale.

 

 

Antonio Gramsci (1891-1937) che qui prendiamo in considerazione non come un politico avversato dal fascismo, ma come uno studioso della cultura popolare,  riprendendo l’approccio critico del pensiero marxiano, introdusse il concetto di egemonia culturale per identificare quei processi di dominio da parte di una classe che impone la propria visione del mondo attraverso le pratiche culturali.
Un altro approccio critico alla cultura è quello rappresentato dalla Scuola di Francoforte (tra coloro che ne fecero parte ricordiamo perlomeno Adorno, Horkheimer e Marcuse) che ha elaborato i concetti di industria culturale e di cultura di massa.

 

La Scuola di Francoforte focalizzò la sua attenzione sul concetto di industria culturale per indicare la produzione omologante di modelli culturali attraverso i media e l’industria che favorirebbero una cultura e una società massificata, ossia uniformata, senza stimoli, priva di creatività.

Una cultura destinata a raggiungere il maggior numero di persone, e quindi funzionalmente omogeneizzante.

Un’altra importante scuola di sociologia, quella di Chicago, partendo dall’analisi dei modelli culturali degli emigrati ha studiato i processi d’ibridazione culturale arrivando a mettere in luce la loro relativa dinamicità e autonomia nell’ambito di quel fenomeno che va sotto il nome di melting pot.

 

Per Pierre Bourdieu (1930-2002), l’ultimo grande dei sociologi francesi, morto nel 2002,  i gusti culturali sono i segni distintivi di una condizione di classe. 

 

Questa condizione esprime una visione del mondo e dei modelli culturali, per lo più inconsci, che Bourdieu chiama habitus e che modellano la distinzione sociale.

La novità di questa tesi è che l’elemento culturale non è più una sovrastruttura, ma è considerato una parte integrante della struttura sociale. 

 

In linea generale possiamo dire che gli sviluppi più recenti della sociologia della cultura, in relazione soprattutto alle trasformazioni sociali, si concentrano oggi su due concetti fondamentali: globalizzazione e postmodernità.
Di fatto la cultura viene oggi concepita come una rete di significati continuamente riformulata dalle interazioni e dalle pratiche sociali.

 

Un altro approccio recente a questi temi si concentra sull’analisi della cultura all’interno di quel fenomeno definito della post-modernità.

 

Tra gli autori più attenti a questo tema troviamo Zygmunt Bauman, un filosofo e sociologo polacco oggi molto popolare per le sue tesi sulla società liquida, con le quali arriva a criticare la cultura contemporanea definendola asservita ai consumi e all’immagine/spettacolo.

 

Com’è facile intuire ogni definizione di cultura riflette gli orientamenti e gli obiettivi di chi la propone, non è dunque un caso che siano un centinaio almeno quelle più conosciute.

 

A noi, qui, basta elencare alcuni punti salienti.

La cultura, essendo acquisita e non trasmessa biologicamente, non può essere ricondotta ad una base biologica o psicologica, così come non può essere riportata ad una semplice dimensione sociale e questo perché non è tanto la socialità che contraddistingue l’uomo, ma il fatto culturale in sé o, se si preferisce, la sociabilità, che possiamo definire come l’attitudine a vivere in società.   

 

Con la sociabilità, soprattutto in etologia, si studia il modo in cui gli individui della stessa specie si organizzano in società e sviluppano la socialità.
Per le scienze sociali la socializzazione è l’insieme dei processi grazie ai quali gli individui sono integrati nella società in modo tale da condividerne le norme e i valori.
In questa prospettiva l’acculturazione può anche essere definita un modo specifico dei processi di socializzazione.

 

La socializzazione, in realtà, è un fenomeno complesso che possiamo riassumere dicendo che è un processo di apprendimento che permette agli individui di acquisire i modelli culturali della società nella quale vive.
Di per sé, poi, la socializzazione definisce l’insieme dei meccanismi attraverso i quali l’individuo interiorizza le norme e i valori del suo gruppo di appartenenza e costruisce la sua identità sociale.
Si può distinguere tra una socializzazione primaria ed una secondaria.

La prima è quella che si elabora all’interno della famiglia, della scuola o con i mezzi di comunicazione.

La seconda è quella che si sviluppa a partire dalle grandi tappe della vita, matrimonio, nascite, lutti, eccetera.

La socializzazione è importante perché si interseca sia con i processi d’interazione sociale, che con il fenomeno della riproduzione sociale.
La riproduzione sociale è quel meccanismo sociologico di mantenimento della posizione sociale e dei modi di agire, di pensare e di sentire di una famiglia o di un gruppo chiuso.
Un esempio può illustrarla meglio della definizione.   

I figli delle famiglie medio-basse hanno la tendenza a non intraprendere studi molto lunghi o costosi. 

Questo fenomeno (di riproduzione sociale) è determinato dalla ineguale ripartizione del capitale economico, culturale e sociale tra le classi. 

Di contro, le famiglie delle classi dominanti cercano di mantenere il loro posto nello spazio sociale e, di conseguenza, sono portate a usufruire dell’istruzione migliore o elitaria al fine di riprodurre e aumentare il loro capitale culturale. 

 

L’analisi del concetto di cultura, da un punto di vista storiografico, è stato nel corso del Novecento, soprattutto tra gli anni ’30 e la fine della seconda guerra mondiale, uno dei dibattiti centrali delle scienze sociali.

 

Uno dei libri più interessanti di questo periodo è Patterns of Culture, edito nel 1934 e scritto da Ruth Benedict, un’antropologa americana, allieva di Franz Boas (1858-1942), un etnologo tedesco che lavorò anche negli Stati Uniti, e che, con Edward Burnett Tylor, è considerato uno dei fondatori della moderna antropologia culturale.

 

In sintesi, a quali conclusioni si arrivò in questi anni?
– che il comportamento culturale è determinato socialmente.   
– che la natura umana non stabilisce in modo univoco le risposte che l’uomo da ai propri bisogni. 
– che la cultura è costituita non tanto da comportamenti individuali, quanto da comportamenti di gruppo, per cui è essenziale, per le scienze sociali, analizzare la struttura e il processo di formazione di questi comportamenti. 

 

È in questo contesto che Ruth Benedict nel 1929 definì la cultura come “la totalità che include tutti gli abiti o i comportamenti acquisiti dall’uomo in quanto membro della società.”

Più semplicemente, la cultura è l’insieme degli stati mentali condivisi da un gruppo sufficientemente grande di individui. 
Oppure, da un’altra angolazione, la cultura definisce il complesso dei modi di vita ai quali viene attribuito un valore da parte di un gruppo d’individui o di una comunità.

 

Praticamente è come se affermassimo che la cultura è un insieme di modelli normativi (e, in sub-ordine, affettivi) condivisi dai membri di un gruppo allo scopo di regolarne la condotta.

 

Modelli più o meno rigidi che sono spesso accompagnati da sanzioni.
Affinché la cultura possa svolgere tale funzione è poi necessario che i modelli di comportamento che la costituiscono abbiano un certo grado non solo di compatibilità, ma anche di organizzazione.  Questo vuol dire che essi devono avere a proprio fondamento un sistema di valori.

Apriamo adesso una parentesi su alcune distinzioni che possiamo fare all’interno del termine cultura dal punto di vista delle sue configurazioni. 
La prima è quella che distingue tra cultura dominante, subcultura, controcultura

 

Se intendiamo per cultura dominante la cultura egemone in un dato momento in una data area, la subcultura è un aggregato tendenzialmente omogeneo di conoscenze, valori, credenze, stili di vita e modelli di vita capaci di contraddistinguere un gruppo sociale.

 

Fattori come la classe sociale, l’età, la provenienza etnica, la religione, la lingua, il luogo di residenza e perfino l’orientamento ideologico e politico possono, infatti, combinarsi tra di loro e creare identità culturali in grado di differenziarsi significativamente dalla cultura dominante. 

 

Gli studiosi delle subculture hanno notato che i membri di una subcultura tendono spesso a differenziarsi dal resto della società con uno stile di vita (che si invera nel modo di vestire, mangiare, celebrare le festività, i gerghi, ecc…) simbolici e alternativi a quelli dominanti.

 

In questo senso lo studio delle subculture si concentra sullo studio dei simbolismi collegati a queste forme di espressione esteriore e sullo studio di come queste vengono percepite dai membri della società dominante. 

 

Di fatto, tanto più una collettività è differenziata tanto più facilmente sarà possibile rintracciare al suo interno delle subculture che producono propri valori.
Tuttavia, più questi valori sviluppandosi si strutturano, più si fa problematico e complesso il fenomeno dell’integrazione sociale, in sostanza, lo sviluppo di una stabilità e di una convivenza pacifica. 

 

In Europa fino a qualche tempo fa si distinguevano principalmente due modelli d’integrazione sociale, quello francese, fondato sui principi laici dell’illuminismo, e quello inglese, basato sul rispetto formale delle differenze.

 

Negli Stati Uniti d’America, dove da tempo si sono mescolate subculture provenienti dalle più svariate parti del mondo come una conseguenza dei numerosi processi migratori che hanno interessato questa nazione, si definisce melting pot il fenomeno della convivenza che si è realizzata.  Una convivenza con caratteri suoi propri, al tempo stesso fragili e funzionali.

 

Va notato che l’uso dell’espressione subcultura non implica necessariamente una situazione conflittuale con la cultura dominante, può infatti costituirne soltanto una variante o un elemento ereditato storicamente.

 

A proposito delle subculture è interessante ricordare questa osservazione di Claude LéviStrauss:

Ogni cultura si nutre degli scambi con altre culture, ma occorre che essa opponga una certa resistenza, in mancanza della quale non avrebbe più nulla che le sia proprio da scambiare.

 

L’espressione di controcultura è, invece, più recente, indica una radicalizzazione delle diversità, essa va intesa come un rifiuto etico e comportamentale dell’insieme dei valori e delle norme dominanti.
Nella seconda metà del Novecento è stata soprattutto un fenomeno legato alla contestazione giovanile, oggi invece ha caratteri più ampi e compromissioni linguistiche, religiose, politiche, economiche.

 

Un altro modo di dividere le varie componenti della cultura in sociologia è quello di distinguere tra cultura materiale e cultura non-materiale
La cultura materiale, in questo contesto, è la cultura delle cose, composta da oggetti, manufatti, prodotti diversi, merci, a cui si possono contrapporre i significati, i valori, i simboli, i linguaggi, e tutti quei prodotti umani non-materiali.

 

È una distinzione di comodo, perché sia le cose materiali che i valori immateriali hanno senso solo se è noto il significato culturale che viene loro attribuito.

 

Possiamo poi parlare di cultura sostitutiva e cultura non sostitutiva.  

La cultura sostitutiva è formata da tutti quegli elementi culturali che nel tempo possono diventare obsoleti o perdere di valore e di utilità.  Dunque, finire per essere socialmente dimenticati.
In genere è una conseguenza diretta dall’accumulazione dei saperi, delle tecniche e dell’esperienza. 

 

Intrecciando questi aspetti possiamo quattro tipologie di “congegni” culturali:
– Degli elementi culturali materiali sostitutivi

– Degli elementi culturali materiali non-sostitutivi

– Degli elementi culturali non-materiali sostitutivi

– Degli elementi culturali non-materiali non-sostitutivi


Vediamo ora più in dettaglio che cos’è la cultura materiale. 

In origine era un’espressione coniata dagli studiosi marxisti dell’Europa orientale per definire l’insieme delle conoscenze e delle pratiche relative ai bisogni e ai comportamenti materiali dell’uomo.  

Si identificava con un sapere fattivo che si contrapponeva alla cultura intesa in senso tradizionale. 

Su questi distinguo nel 1953 venne fondato a Varsavia l’Istituto per la storia della cultura materiale

Uno dei primi temi che affrontò questo istituto fu se la cultura materiale poteva essere intesa come una disciplina autonoma o non piuttosto come un paradigma in cui potevano convergere diverse discipline e diverse competenze.

 Ciò per meglio gestire altre fonti di conoscenza che possono essere utilizzate per questo genere di indagini: fonti documentarie, fonti archeologiche e fonti iconografiche. 

In quest’ottica una definizione di “storia della cultura materiale” fu data da Witold Kula:

È la storia dei mezzi e dei metodi impiegati nella produzione e nel consumo.

Il dibattito sul paradigma della cultura materiale si ampliò negli anni Settanta quando il concetto di cultura materiale acquistò una sua popolarità. 

Molti studiosi cominciarono a riservare una certa attenzione ai dati di natura materiale nella ricostruzione delle vicende storiche. 

In particolare, nell’ambito della storia dell’arte si affermò una tendenza a considerare i fenomeni storico artistici come delle espressioni di cultura materiale, legate all’ambiente in cui questi fenomeni si erano manifestati o erano stati prodotti.

Da qui, poi, il passo verso la visual culture, da una parte, e la nascita dell’antropologia dell’arte dall’altra, fu breve. 

In quest’ottica, lo storico dell’arte americano, George Kubler (1912-1996), che per primo ha sviluppato i temi di questa antropologia, considera la storia dell’arte una “storia delle cose”.

In italiano di Kubler la casa editrice Einaudi ha pubblicato i tre volumi della sua storia sulla forma del tempo e sulla storia delle cose.


Ritorniamo a considerare un compito importante che svolge la cultura dal punto di vista della sociologia e che possiamo definire una funzione di mediazione.

 

Questo perché le forme espressive che attraverso il linguaggio e la comunicazione in genere si configurano come rappresentazioni della realtà (siano esse rappresentazioni religiose, artistiche, scientifiche, filosofiche, giuridiche, o del comportamento) costituiscono altrettanti modi attraverso i quali l’individuo cosciente di sé riesce a mediare il rapporto con se stesso, gli altri, il suo mondo e le cose. 

Per la sociologia la mediazione è il processo con il quale il pensiero generalizza i dati dei sensi e estrae dalla conoscenza sensoriale – che è una sorta di conoscenza immediata – una conoscenza astratta e intellettuale, che possiamo definire una conoscenza mediata. 
In questo senso la cultura ha anche una funzione implicita fondamentale, perché la mediazione  s’impone agli uomini come il fondamento della prevedibilità sociale  


Dobbiamo fare attenzione a non confondere la cultura con un’altra espressione che nel linguaggio comune è impiegata in modo analogo, quella di civiltà.    

Ricordiamo che il termine di civiltà deriva dal latino civilitas, che a sua volta deriva dall’aggettivo civilis (da civis, cittadino).
La nozione di civiltà in sociologia serve soprattutto a evocare lo stato della tecnica o, in un altro contesto, il risultato di un processo in virtù del quale gli individui apprendono a vivere in società.

A questo proposito usiamo dire civiltà del bronzo, del ferro, civiltà del petrolio, civiltà atomica, civiltà dell’informazione.

 

Storicamente, l’espressione di civiltà ( Zivilisation/ civilisation), almeno fino al diciannovesimo secolo, serviva anche a definire il processo in virtù del quale gli individui divenivano capaci di vivere in società.

In questo senso, la civiltà tendeva a confondersi con l’atto di civilizzare. 

 

Di solito, poi, si distingue la civiltà dalla cultura in base a due considerazioni.
Un’estensione più vasta in termini di territorio. 

Una durata molto più lunga in termini temporali.
Un altro grande lemma che s’intreccia con la nozione di cultura è quello di società.
Anche questo è un concetto importante, soprattutto nell’ambito delle scienze sociali che da molti sono anche definite come una scienza della società.

Ma che cosa è la società, o meglio, come possiamo definire l’espressione di società.

 

Fino a questo momento abbiamo usato questo termine in senso intuitivo. 

Le difficoltà nel definire che cosa s’intende per società nascono dal fatto che non ci riferiamo ad un oggetto o ad un fenomeno fisico, ma al risultato di numerosi processi intersoggettivi di interpretazione e di comunicazione, ovvero, a qualcosa che sta essenzialmente nelle rappresentazioni mentali degli individui. 

 

Tali rappresentazioni, per lo più composte da credenze o convinzioni storicamente sedimentate, sono poi intimamente legate all’esperienza soggettiva e all’agire degli individui.

Va anche rilevato che nella cultura occidentale la nozione di società ha spesso oscillato tra una connotazione negativa ed una positiva.
Nel primo caso, generalmente, la società si contrappone alla comunità

Nel secondo caso è associata alla nozione di Stato

 

Nel 1887, Ferdinand Tönnies (1855-1936), un filosofo e sociologo tedesco, pubblicò un libro intitolato Gemeinschaft und Gesellschaft (Comunità e società) dove appunto studiava le comunità intese, in senso positivo, contrapposte alle società considerate un insieme di relazioni di natura essenzialmente economiche e burocratiche.

 

Per quanto ci riguarda diciamo che là dove c’è un territorio, un insieme d’individui in relazione reciproca tra di loro, una lingua o, un modo comune d’intendersi, là c’è una “unità sociale” o, meglio, una realtà sociale.  
Ma come si costituiscono queste realtà?
Essenzialmente con la coscienza di farne parte. 

 

Va da sé, questa coscienza di esserne parte o, come dicono i filosofi, questa coscienza dell’esserci, è legata strettamente anche al linguaggio, che consente di articolare delle domande sul senso della propria esperienza e della vita.


In questo senso il linguaggio, con le sue forme di rappresentazione di sé, della realtà e dell’esperienza, contiene l’insieme delle forme di mediazione simbolica che in qualche modo costituiscono la cultura

Ciò ci consente di dire che la complessità del linguaggio è un segnale della specificità culturale, ma non che una cultura è superiore o inferiore a un’altra.   


La mediazione simbolica è un’interazione tra dei soggetti che mirano a raggiungere un accordo o un compromesso su un certo modo di risolvere dei conflitti o delle divisioni che hanno a che fare con il loro stare insieme. 
In parole povere è la capacità di condividere i processi di socializzazione. 


In questa prospettiva la società appare come il risultato dei processi di conoscenza e di autocoscienza che si sviluppano nella comunicazione sociale, verbale e non-verbale.

 

Vediamo ora alla relazione tra cultura e massa.

Fino a qualche tempo fa per il senso comune e per molte ideologie politiche, la cultura di massa era assimilata alla nozione di cultura delle masse

Una forma di cultura ricca di significati positivi per i progressisti e negativi per i conservatori, anche se entrambe le posizioni concordavano sul loro studio perché le masse, in un modo o nell’altro, costituivano la base e lo strumento, sia pure rozzo e per molti versi incontrollabile, di tutti i cambiamenti sociali.
In questo senso, cultura di massa significava soprattutto cultura per il popolo

Un’espressione (cultura per il popolo) usata anche per definire il carattere diretto, semplice e genuino delle culture popolari e contadine.

Ma qui sono nati molti equivoci perché in questa accezione le culture popolari si identificavano con il folclore e/o le tradizioni localistiche.  


Il termine folclore o folklore (da folk, “popolo”, e lore, “sapere”), si riferisce all’insieme delle  tradizioni provenienti dal popolo e tramandate oralmente. 

Tradizioni che riguardano gli usi, i costumi, le leggende, i proverbi, la musica, la danza, la cucina riferiti o ad una determinata area geografica o ad una determinata popolazione. 

L’invenzione del termine folklore è attribuita all’ antropologo William Thoms (1808-1900) che, con lo pseudonimo di Ambrose Merton pubblicò nel 1846 una lettera sulla rivista letteraria inglese Athenaem, allo scopo di dimostrare la necessità di un vocabolo che potesse comprendere gli studi sulle tradizioni popolari. 


Agli occhi dei suoi detrattori il difetto principale della cultura di massa sta nel fatto che, per risultare più o meno accessibile ai più, è costretta a mettere l’accento sulle emozioni e i sentimenti più facili e diffusi.  
Di conseguenza questa cultura appare come una sotto-cultura superficiale e sentimentale, piena di luoghi comuni. 

Un concetto che, un tempo, veniva riassunto così:
La cultura di massa esprime i pensieri più profondi degli individui più superficiali. 

 

Per coloro che invece tendono a distinguere tra cultura popolare e cultura di massa l’accento è posto sull’autonomia della cultura popolare. 

Un’autonomia sempre più minacciata dalla produzione e dalla distribuzione della cultura ridotta a merce delle élite capitalistiche.

 

Nell’Ottocento la cultura popolare si esprimeva soprattutto nell’abbigliamento, nel canto collettivo, nella danza, nelle abitudini alimentari, nelle piccole cose di artigianato.   

Era una cultura che, sia pure involontariamente, aveva esercitato un grande fascino sul Romanticismo, su quel movimento artistico e letterario che rappresentò, per almeno un paio di generazioni, lo spirito più vivo della cultura europea dell’Ottocento.

 

(Qui occorre sottolineare come nella seconda parte dell’Ottocento l’ideologia romantica sia stata banalizzata – nei suoi risvolti idealistici – dal prorompere del positivismo.)

 

Molti protagonisti di questa corrente artistico-letteraria, che il successo fece diventare anche una moda e uno stile di vita, si prodigarono per salvare la cultura popolare, nella sua originale genuinità, attraverso la promozione, soprattutto nella mitteleuropea, delle scuole di arti e mestieri.

Sono scuole – queste, delle arti e mestieri – che in molti casi, finirono per alimentare una vera è propria ideologia del passato, in contrapposizione alla nascente industrializzazione, snaturando le premesse che avevano portato alla loro istituzione.

 

Comunque, la cultura popolare nell’Ottocento, a differenza di quella di massa, nasceva ancora in modo spontaneo, avvalendosi soprattutto di materiali e mezzi espressivi tradizionali.

 

Al contrario, l’odierna cultura di massa tende a sfruttare il patrimonio delle culture popolari per farne dei prodottimerce da veicolare attraverso i massmedia e da vendere attraverso la grande distribuzione commerciale.
Un patrimonio che viene prelevato dovunque, dalle tradizioni contadine come dalle periferie urbane – vedi il caso di molte forme di musica giovanile – così come dalle etnie emigrate o emergenti.
Su queste espressioni di cultura si opera, poi, quello che i professionisti del marketing chiamano restyling, per poterle far diventare merci a buon mercato da vendere soprattutto a chi abita le aree urbane delle grandi metropoli.

In questo modo il concetto di cultura di massa risulta associato in modo funzionale alla società dei consumi.

 

Del resto, nella modernità, una parte rilevante dei rapporti che intercorrono tra le persone sono di natura economica e i consumi sono diventati dei veri e propri fenomeni sociali primari.

In questo senso, volenti o nolenti, la cultura di massa ha finito per programmare e uniformizzare la nostra vita su scala planetaria.
Questa cultura, come abbiamo visto, è nata in Europa tra la metà e l’ultima decade dell’Ottocento, ma con il diffondersi della carta stampata e dell’alfabetizzazione primaria, prima, e con l’avvento della radio e del cinema, dopo, è mutata in un fenomeno di costume e di modelli di consumo che oltre oceano chiamano l’american way of life.

 

Se consideriamo la cultura di massa in filigrana con il tema della cultura popolare possiamo osservare che essa ha integrato l’ambiente operaio, soprattutto delle periferie urbane, con il mondo contadino e, entrambi, con gli stili di vita della borghesia.

 

Passiamo ad esaminare il tema delle strutture sociali.
L’importanza dell’analisi delle strutture sociali deriva dalla considerazione che non è possibile isolare una dimensione pura ed autonoma della soggettività come se fosse un’identità sociale.

Questo perché gli attori sociali (individuali e collettivi) rappresentano, allo stesso tempo il motore e il prodotto che in qualche modo rappresentano queste strutture.

Nel loro significato sociologico il termine fu coniato da Herbert Spencer nel 1858.

 

Egli mise in luce il fatto che in una struttura sociale, le parti che la compongono s’identificano con le relazioni fra le persone e come, di conseguenza, l’insieme organizzato delle parti può essere inteso come una rappresentazione della società nel suo complesso.

 

Spencer identificò poi nella durata una delle caratteristiche più importanti di una struttura sociale.
Vale a dire, tutte le strutture sociali hanno una vita più o meno lunga e, in genere, la loro durata depone a favore della loro importanza. 

 

Questo studioso si pose anche una domanda: Le strutture sociali si basano sul consenso o sulla coercizione

Da convinto funzionalista e liberista – la società era per lui un organismo vivente nel quale tutte le parti contribuiscono a mantenerlo in vita – le strutture sociali non avrebbero dovuto produrre conflitti e non avrebbero dovuto fondarsi sulla coercizione.

 

Di diverso avviso, tra i suoi contemporanei, erano i movimenti politici d’ispirazione socialista, per i quali, invece, la società è l’esito di un perenne conflitto tra le classi. 

Oggi a questa domanda, se ne sovrappone un’altra: In che modo le strutture sociali sono in grado di favorire il mutamento sociale?

Una società che non muta, infatti, è una società che non cresce o cresce male e così facendo tende a ripiegarsi su se stessa o a implodere.

 

In questa analisi va tenuto presente anche il fatto che la società è condizionata dall’ambiente naturale e dalle forme di sociabilità che riesce a sviluppare. 

Così come le sue strutture sociali sono condizionate anche dalla storia sociale dei suoi attori, siano essi gli individui come i collettivi. 

 

Va anche rilevato che le strutture sociali dipendono in modo stretto dalla qualità dell’ambiente naturale nel quale si realizza lo sviluppo della società. 

È un tema che in passato e a diverso titolo, ha interessato molti autori, tra i quali Èmile Durkheim, Max Weber e Georg Simmel.

 

Diciamo che l’ambiente naturale è il complesso delle possibilità nei confronti delle quali si sviluppa l’azione degli uomini, sia come individui che intesi come gruppi agenti o comunità.

Com’è risaputo non c’è nulla di pre-definito offerto dalla natura all’uomo.

C’è semplicemente la capacità dell’uomo all’adattamento naturale e le sue capacità di agire su di

esso.
In breve dobbiamo tener conto che le strutture pubbliche e politiche – che contribuisco a disegnare le forme urbane, i loro servizi  e a tracciare le vie di comunicazione –  influiscono in maniera rilevante nel condizionare lo spazio sociale della persona, la sua libertà di scelta e di movimento e il suo grado d’interazione sociale.

 

In questi ultimi anni e per le ragioni più diverse si è anche diffusa una nuova sensibilità per i problemi dell’equilibrio tra l’uomo e il mondo. 
Sensibilità che ha messo in luce la grande responsabilità dell’azione umana sia nella conservazione che nella distruzione dell’ambiente. 
Da qui la constatazione che l’adattamento non può essere all’insegna del mero sfruttamento della natura, ma deve tener conto del fatto che gli interessi dell’uomo non possono infliggere all’ambiente dei danni irreparabili o superiori ai vantaggi

 

Vediamo adesso qualcosa a proposito di un altro importante elemento che ci lega alla natura:

il tempo.

Il tempo rappresenta una delle dimensioni della realtà che abitiamo o, se si preferisce, dello spazio sociale.
Di conseguenza, la temporalità, che definisce ciò che è iscritto nel tempo, deve essere considerata come un carattere essenziale delle relazioni sociali.

 

Il tempo, in sostanza, è un’infrastruttura strategica dell’azione e dell’interazione sociale, rappresenta e rende visibile il carattere processuale e storico di ogni attività umana, con una particolarità, drammatizzandola, perché il tempo è irreversibile.   

 

In sociologia, il primo a parlare di tempo sociale è stato Durkheim nel 1912.
Con questa espressione si sottolinea la dipendenza del tempo individuale da quello più ampio del gruppo o della comunità che funzionalmente lo comprende.

Ma, qual è la funzione del tempo sociale?
Attraverso la sua percezione gli uomini organizzano e ritmano la loro vita privata e collettiva, di più, questa percezione ne assicura il suo coordinamento e la sua sincronizzazione

 

Nella ricerca sul tempo sociale una delle tecniche più utilizzate in sociologia è quella indicata con l’espressione di time-budget (bilancio del tempo).

Storicamente, questa tecnica fu inizialmente elaborata dalla sociologia sovietica per studiare le problematiche della vita quotidiana degli operai.

Oggi, invece, è adoperata per descrivere i modi e gli stili di vita e per disegnare le cosiddette mappe dei comportamenti abituali.

 

Attraverso il tempo o, meglio, attraverso l’esperienza del tempo, noi stabiliamo una continuità narrativa tra passato, presente e futuro. 

Come ha notato Alfred Schütz, un grande filosofo e sociologo di lingua tedesca, il tempo è un fattore essenziale per la comprensione dell’agire umano.

Costituisce una risorsa sociale, la cui disponibilità è diversa da individuo ad individuo e tra comunità e comunità.  Che cosa significa?
Che il tempo degli operai non è quello dei signori.
Che il tempo di una comunità di monaci non è quello di un collegio universitario o di una squadra di calcio.  Non è tutto.  Il tempo è percepito anche come un bene, soprattutto economico, diversamente valutabile e valutato.

In questo senso fu Karl Marx che per primo lo definì come un qualcosa che possiede un valore. 
In altri termini, il tempo è una variabile economica dei processi di produzione e di conseguenza, esso costituisce un importante fattore nei processi di razionalizzazione della modernità. 

 

Ci sono altri temi sensibili intorno alla relazione ambiente, individuo, natura. 

 Uno di questi temi, che compare sempre più spesso nel capitolo dedicato alle condizioni dell’ambiente naturale, è la nozione di corpo.

 

Oggi la sociologia del corpo è una disciplina indirizzata soprattutto alla costruzione di modelli esplicativi relativi al rapporto di reciproca determinazione (o restrizione) tra la società (ovvero i processi sociali) e la corporeità (o, unità psicosomatica).

 

Due autori che si sono occupati in modo specifico del corpo sono Georg Simmel e Marcel Mauss.

Lo hanno fatto in una prospettiva culturalista creando i presupposti di una vera e propria sociologia del corpo o delle culture corporee successivamente elaborata anche da una grande antropologa inglese Mary Douglas (1921-2007).

 

Successivamente il corpo, come realtà fenomenologica, ha avuto un particolare rilievo nei lavori di Erving Goffman, Gregory Bateson e David Le Breton.

 

L’approccio in questi autori è essenzialmente di tipo strutturalista o se si preferisce funzionalista.

 

Viceversa, l’analisi della relazione tra il vissuto, la corporeità, i processi socio-culturali che li riguardano è centrale negli studi di due sociologi di origine austriaca, Thomas Lukmann (il cui libro più famoso è La realtà come costruzione sociale del 1966) e Alfred Schütz, che vedremo in seguito per le sue ricerche sulla vita corrente è ciò che la fenomenologia chiama Lebenswelt, cioè, i mondi di vita.

Sempre sul tema del corpo e di ciò che rappresenta sia come elemento del mondo sensibile che espressione dell’individualità ricordiamo due filosofi francesi Jean-Paul Sartre e Maurice Merleau-Ponty oltre che lo psichiatra inglese Roland Laing.

Infine, da un punto di vista gnoseologico di grande importanza sono le riflessioni di altri due grandi pensatori francesi, George Bataille e Michel Foucault a cui dobbiamo la nozione di biopolitica.

 Per Foucault la biopolitica è il terreno sul quale agiscono le pratiche con le quali la rete dei poteri costituiti gestisce le discipline del corpo sia in senso individuale che collettivo.

È di fatto un’area d’incontro tra il potere e la sfera della vita.

 

Il corpo in molti di questi studi è inteso soprattutto come una macchina comunicativa.

Una macchina che si può costruire con l’attività fisica, si può modificare con una divisa, si può trasformare in un messaggio con un tatuaggio.

 

Il discorso sul corpo riguarda anche le cosiddette pratiche centrate sulla “corporeità”, perché servono a delineare, da una parte, gli stili di vita e, dall’altra, hanno un grosso risvolto economico, come sono le attività legate all’industria della cosmesi, alla chirurgia plastica, alle diete, all’abbigliamento, eccetera.

 

Cambiamo argomento. 

Passiamo ad un rapido esame delle istituzioni e delle organizzazioni formali, vale a dire di quei sistemi relativamente stabili di relazioni, retti da norme specifiche, che assolvono o dovrebbero assolvere a funzioni e interessi della vita sociale come tale.

 

In altri termini, queste istituzioni e in parte queste organizzazioni formali sono delle strutture sociali che amministrano e governano il comportamento degli individui.
In particolare le istituzioni materializzano o, meglio, danno visibilità ai principi giuridici fondamentali della forma di Stato, identificandosi con gli organismi politico-costituzionali che ne sono l’espressione.  

Costituiscono delle istituzioni formali i parlamenti, le forze armate, i ministeri, le fondazioni, i tribunali, eccetera.

Le organizzazione formali hanno, invece, una natura più privatistica, come sono un’azienda, una squadra di calcio, un club, un’associazione di volontariato, un partito politico.

 

Ciò che contraddistingue sia le istituzioni che le organizzazioni formali è il carattere della stabilità.
Esse sono stabili nella misura in cui vengono codificate dagli usi, dal costume dalle norme. 

Poi, a misura in cui sono stabili, tendono a caricarsi di valori immateriali, come per esempio il prestigio o l’affidabilità
Sono valori che consentono loro una certa autonomia, ponendole al di sopra delle parti e degli interessi di parte. 

La loro stabilità e la loro autonomia, infatti, hanno il potere di agire con autorevolezza sugli attori sociali condizionandoli, educandoli o indirizzandoli nella loro vita sociale.
Al limite, sanzionandoli.

 

Va sottolineato che le istituzioni e le organizzazioni formali sono profondamente intrecciate al meccanismo dell’interazione sociale.
Per definirla conviene partire dall’esperienza che ognuno di noi ha della società.

Non è difficile constatare che questa esperienza si materializza come l’insieme dei rapporti che intratteniamo a diverso titolo nel nostro habitat sociale.
Si tratta di un insieme di azioni e di reazioni  – da cui il termine interazione – mediante le quali gli individui entrano tra loro in contatto, comunicano, collaborano, giudicano.   

 

In breve l’interazione sociale è quella sequenza dinamica e mutevole di atti sociali fra individui o gruppi di individui che modificano le proprie azioni e reazioni in relazione alle azioni degli individui e dei gruppi con cui interagiscono. 

 

In questo senso l’interazione può essere intesa come il luogo primario in cui si forma, si ratifica, si trasforma il legame sociale. 

Da questa definizione si comprende anche come l’interazione sociale determini l’ordine sociale.
Ordine che non si manterrebbe in equilibrio senza una costante e spesso lunga e silenziosa rinegoziazione dei suoi valori, delle sue norme, dei suoi saperi o delle sue credenze

 

Perché il tema dell’interazione è importante?

Perché rappresenta il nodo intorno al quale si sviluppano e si strutturano gli studi del comportamento collettivo e individuale.
Questi studi, che confluiscono in quelle che oggi si chiamano le microsociologie, hanno come argomento principale i cosiddetti rapporti face to face, cioè, i rapporti intersoggettivi. 

Diciamo allora che, per definizione, le microsociologie studiano soprattutto i legami sociali elementari.

Il primo a rendersi conto dell’importanza di questi legami fu Georg Simmel, che esaminò l’importanza di alcuni micro-fenomeni sociali come sono i segreti, l’amicizia, l’ubbidienza, la lealtà, la fiducia.

Oggi le microsociologie hanno come campo disciplinare i comportamenti, i ruoli, le interazioni sociali, i conflitti, le identità e il modo di formarsi dei processi decisionali individuali o dei piccoli gruppi.
Per ragioni di economia ci soffermeremo, per esaminare le microsociologie, su Alfred Schütz (1899-1959), uno dei primi ricercatori che si pose il problema di indagare le relazioni tra gli individui, nell’ambito della vita quotidiana.

 

Schütz era nato in Austria, ma dovette emigrare in America a seguito delle leggi razziali tedesche dopo l’annessione al Terzo Reich e lì, anche per motivi personali, si dedicò all’analisi del comportamento collettivo.

L’opera a cui noi faremo riferimento uscì nel 1932, s’intitola La fenomenologia del mondo sociale, è uno studio nel quale, partendo dalle ricerche di Max Weber, sviluppa le problematiche dell’agire sociale.

Egli definì la vita quotidiana, come l’insieme di azioni, di rapporti, di conoscenze e di credenze familiari all’interno dei quali, per così dire, scorre ciò che conta sul piano individuale e segna, con l’esperienza, l’esistenza degli individui.

 

Si tratta di quel insieme di relazioni che, il più delle volte consideriamo o passano per scontate, come salutare un conoscente, prendere un appuntamento, uscire in compagnia di amici per una cena, telefonare per informarsi sulla salute di un parente ammalato, avvertire casa per un improvviso contrattempo, mettersi d’accordo per andare ad un concerto, eccetera.

 

Come Alfred Schütz ebbe modo di dimostrare questi rapporti costituiscono il cemento dell’esperienza sociale di cui cogliamo l’importanza quando entrano in crisi o attraversiamo uno stato di eccezione – come furono per lui le leggi sulla razza.     

 

Vediamo, in questa prospettiva, alcuni caratteri della vita quotidiana.

Il primo di essi è la routine.
Costituisce il carattere più evidente della vita quotidiana e, per molti versi, anche il più sorprendente quando lo andiamo a focalizzare.
Questo carattere esprime la ripetitività e la prevedibilità delle azioni, dei comportamenti e dei pensieri

La prevedibilità, in particolare, agisce sul comportamento abbassando il livello d’interesse dell’osservatore e/o dell’attore sociale e, così agendo, favorisce soprattutto un risparmio di energie.
Ma non è così semplice.

 

La ripetizione e la prevedibilità dei comportamenti possono finire per stimolare risposte automatiche o stereotipate, che abbassano il nostro grado di attenzione verso ciò che ci circonda. 

Perché sono così importanti per la sociologia?
Perché quando ripetitività e prevedibilità finiscono per invadere massicciamente il tempo della vita quotidiana, siamo in presenza di vissuti che tendono inesorabilmente a deteriorarsi

O, come dicono i filosofi sociali, siamo davanti ad una alterazione del quiora che induce ad una sorta di smarrimento sociale e, spesso, nei casi più gravi, a forme di angoscia e di disagio psichico.  

Questi processi interattivi generano anche un altro fenomeno, le tipizzazioni.   

La tipizzazione agisce come uno strumento di previsione del comportamento.
È come dire, capovolgendo un proverbio popolare, che l’abito, a dispetto del nostro senso critico, fa il monaco.
La tipizzazione può essere involontaria, ma il più delle volte è il risultato di una scelta consapevole tra i vari modelli di comportamento che l’esperienza sociale ci fornisce.

Perché è consapevole?
Perché ciascuno di noi sa bene che ad ogni passo della nostra giornata come della nostra vita sociale siamo costantemente osservati, e in qualche modo interpretati e giudicati.
Perché ciascuno di noi sa che gli altri reagiscono nei nostri confronti secondo il loro modo di essere.

Modo di essere che si esprime attraverso il loro modo di interpretare e vivere le situazioni sociali.

 

Un altro aspetto importante dell’interazione sociale e ciò che la lega ai processi della rappresentazione
Gli individui, infatti, non solo sono coscienti delle azioni e delle reazioni che questi processi comportano, ma, in genere, sono consapevoli anche dei loro effetti.  

 

Secondo Erving Goffman (1922-1982) a causa della consapevolezza, che gli individui hanno di influenzare con le proprie azioni l’opinione che gli altri danno della situazione alla quale essi stanno partecipando, questi stessi individui finiscono (inevitabilmente) per comportarsi come se recitassero una parte, come se fossero attori su un palcoscenico.  
Come se vivessero dentro una rappresentazione teatrale o uno spettacolo.   

 

Goffman è un sociologo di origine canadese, vissuto negli Usa, ha studiato a Chicago.

Lo ricordiamo perché a Chicago ha operato una delle scuole di sociologia urbana più prestigiose degli Stati Uniti.

Uno degli scritti più importanti di questo studioso, uscito nel 1956, s’intitola, La vita quotidiana come rappresentazione.
Con questa opera, Goffman, introduce nella sociologia il concetto di prospettiva drammaturgica.

 

Il suo campo di ricerche sono stati gli aspetti trascurati della vita quotidiana, quelli che appaiono banali, ma che possiedono, in sé, una forte carica recitativa. 
Costituiscono degli aspetti che, nelle società complesse, come quelle del mondo Occidentale, sono divenuti oscuri e equivoci e che, sempre di più, vengono usati per offrire agli altri un’immagine in qualche modo valorizzata di noi stessi.

I sociologi americani definiscono queste situazioni, come abbiamo già notato, face to face, perché di fatto riflettono le piccole situazioni della vita di tutti i giorni.

Per analizzarle Goffman immaginò la vita quotidiana come se fosse un gioco di rappresentazioni.
Un gioco nel quale l’identità dell’individuo – che nella lingua inglese è definita con l’espressione

di selfcoincide di volta in volta con le maschere che costui indossa sul palcoscenico della vita corrente.


Prima di procedere spendiamo due parole sull’espressione di self, un’espressione con la quale nella lingua inglese si identifica l’identità dell’individuo nelle relazioni face to face

 È un concetto molto usato anche in psicologia e in psicanalisi, da cui è stato mediato. 

Didier Anzieu (1923-1999,)un protagonista della psicoanalisi francese, scrisse, qualche tempo fa, un libro divenuto un classico sui confini del self, intitolato, Le moipeau, (L’io-pelle) 1985. 

 

Perché è importante la nozione di self

Esso gioca un ruolo decisivo nel rapporto che noi abbiamo con il nostro corpo e il corpo degli altri.  Non solo, perché il self caratterizza anche il modo con cui noi percepiamo la sostanza corporale con la quale siamo fatti e che non si limita a un po’ d’acqua, lipidi, aminoacidi, eccetera. 

 

La nostra esperienza della vita quotidiana ci dice che la percezione della nostra sostanza corporale cambia di contenuto davanti ai nostri occhi quando supera i limiti del self

In questo modo il self si è rivelato un concetto molto importante per studiare il gusto e il disgusto e il modo di percepire la prossimità con gli altri. 

Facciamo qualche esempio.

Non abbiamo disgusto della saliva che si trova nella nostra bocca, ma se la raccogliamo in un bicchiere molto difficilmente riusciremo a rimetterla in bocca e inghiottirla.  Perché quando le nostre secrezioni superano (varcano) il limite del nostro iopelle ci diventano estranee, e simmetricamente, quelle degli altri (che ci penetrano) ci provocano disgusto più si avvicinano.    

É come se le vivessimo in modo intrusivo, è come se dovessimo difenderci da esse. 

La stessa cosa si può dire per il sangue, a noi non da fastidio succhiare il sangue che esce da un dito che ci siamo feriti affettando del pane, ma se questo sangue lo raccogliamo con una garza, difficilmente avremmo poi il coraggio di succhiarla. 

Di contro, il self diventa tollerante con le relazioni di vicinanza derivate da un’attrazione emotiva

Non a caso nelle relazioni intime il self diventa spesso un acceleratore dell’intimità, come avviene con la saliva del bambino che non è ripugnante agli occhi della madre, così come non lo sono le secrezioni dei nostri partner sessuali, ma che tornano ad esserlo se l’intimità viene spezzata da una separazione o da un litigio. 

 

Con il self, tra l’altro, si possono spiegare anche molti dei meccanismi del feticismo, che trasformano la distanza e la familiarità degli oggetti che appartengono al soggetto amato.

In questo senso l’intimità come la tenerezza contaminano positivamente gli oggetti avvicinandoli a noi, facendoli diventare familiari, esattamente come il disgusto li allontana. 

 

L’identità soggettiva s’intreccia con un altro grande tema che abbiamo accennato, quello della contaminazione, in questo caso serve a completare il paradigma della prossemica, intesa come quel capitolo della semiologia che studia il significato del comportamento umano (gesti, posizioni, distanze posture) dal punto di vista dei processi comunicativi. 


In questo contesto la vita di tutti i giorni è analizzata da Goffmann come una scena sulla quale si recita.

Una scena con i suoi attori, il suo pubblico, le sue quinte, dove spesso gli attori contraddicono quello che hanno detto davanti ai riflettori.
Su questa scena gli attori si mettono in gioco, si presentano, si alleano, si scontrano s’ingannano, mostrano la loro capacità d’impersonare un ruolo, s’immergono o prendono le distanze dalle situazioni che li coinvolgono 

 

Occorre persi una domanda: Gli individui sono coscienti di recitare una parte sociale?

 

Per Goffman lo sono sempre, anche se non sempre ne sono totalmente consapevoli.  

In certe occasioni questa recitazione è assolutamente partecipata, in altre è come una parte recitata mille volte, che diventa quasi automatica, in altre ancora è recitata di malavoglia.

 

C’è poi da considerare ancora una cosa, come l’Altro da noi o gli altri giudicano chi sta recitando. 

Questo perché, in base a come chi sta osservando valuta la spontaneità, o se volete, l’abilità, o la qualità della recitazione dell’altro o degli altri suoi interlocutori, ne tira delle conclusioni che, a sua volta, influenzeranno il suo modo di comportarsi.
Come in una partita a ping-pong, ogni tiro a sua volta provoca una reazione di tiro, che a sua volta provoca una reazione…e così via….

 

Passiamo ora ad un altro argomento chiave del discorso sociologico: i gruppi.

Da qualche tempo a questa parte i gruppi sono studiati da una specifica disciplina chiamata analisi  gruppale.
Il riconoscimento dell’importanza dello studio dei gruppi lo dobbiamo, per quanto ci riguarda, soprattutto ad uno psicanalista inglese, Wilfred Ruprecht Bion (1897-1979), che a sua volta lo riprese dagli studi di Maxwell Jones (1907-1990) sulle piccole comunità terapeutiche.

 

Come abbiamo osservato per le masse, un gruppo non si riduce alla somma delle coscienze e delle volontà individuali che lo compongono, anzi, è più facile il contrario, che il gruppo trasformi l’individuo che ne fa parte.

 

In sociologia si definisce gruppo sociale un insieme di persone che entrano in qualche modo in rapporto reciproco, sulla base di valori o interessi comuni

Oppure, in una forma più articolata:

Un gruppo è un insieme d’individui che interagiscono fra loro influenzandosi reciprocamente e che condividono, più o meno consapevolmente, interessi, scopi, caratteristiche e norme comportamentali. 

 

Che cosa distingue un gruppo da una folla o da una comunità di persone?
Il fatto che nella folla, nella comunità o, più in generale, in un’aggregazione di persone, come è, per esempio, un grande ufficio, una scuola, un quartiere, non esiste un’interazione diretta tra tutti gli individui, o, più semplicemente, questi individui non costituiscono un insieme organizzato.

 

Prima di procedere con i gruppi distinguiamoli subito da un’altra figura della topografia

sociologica, le categorie sociali che rappresentano dei gruppi impropri o degli pseudogruppi.
Sono, in genere, il risultato di una costruzione teorica deliberata mediante la quale gli studi sociali raggruppano idealmente o teoricamente in una stessa unità individui con caratteristiche comuni, al fine di poterli monitorare.

 

Quanto agli aggregati, essi costituisco dei semplici gruppi casuali.
Rispetto ai gruppi veri e propri gli aggregati mancano di una struttura, sono limitati nel tempo e soprattutto mancano di quella qualità delle relazioni interpersonali che costituiscono l’essenza dei gruppi.

 

Vediamo le tre caratteristiche che distinguono un gruppo.
– I membri del gruppo interagiscono tra di loro in modo strutturato secondo le norme o i ruoli che il gruppo si è dato.
– I membri del gruppo hanno la coscienza di essere un gruppo o, meglio, maturano un sentimento di appartenenza al gruppo che, tra l’altro, funziona da barriera nei confronti degli estranei.
– Il gruppo è percepito come un gruppo da parte di chi non ne fa parte.  Vale a dire il gruppo ha un’identità esplicita e assolutamente percepibile dall’esterno.

 

Quanto ai gruppi in sé possiamo distinguerli in molti modi.
La classificazione più importante è quella tra gruppi primari e gruppi secondari
I gruppi primari sono anche detti piccoli gruppi.
Il loro carattere principale è la forte integrazione, tipica, per fare un esempio, delle famiglie o delle bande.
Per definizione i gruppi primari sono costituiti da pochi individui.
I gruppi secondari o grandi gruppi sono gruppi composti da un numero elevato di membri.
Sono gruppi nei quali le relazioni interpersonali appaiono neutre e, spesso, il rapporto tra il singolo e gli altri membri è di natura strumentale, cioè, funzionale ad uno scopo.

 

L’esperienza sul campo ha dimostrato che appena il numero dei membri di un gruppo supera la mezza dozzina c’è una tendenza, che si può definire spontanea, alla formazione di sottogruppi, dove le affinità sono più forti.

 

Quando, poi, il numero dei membri di un gruppo secondario supera la dozzina è molto probabile che all’interno del gruppo si formi un portavoce o che un membro lo coordini.
A questo proposito si è constatato che in qualsiasi gruppo, prima o poi, emerge la figura di un leader.
La velocità con cui questa figura si forma è proporzionale alla grandezza del gruppo.
Più il gruppo e grande e prima si costituisce una leadership.  

Nella leadership si possono distinguono tre stili:
Quello autoritario, quello democratico e quello improntato al laissez-fair

Nel primo caso la struttura è molto gerarchica e si caratterizza per la direzione degli ordini che influenza il comportamento del gruppo, sempre dall’alto verso il basso.
Questi ordini, in genere, non sono mai messi in discussione, cioè, si subiscono.

La struttura dei gruppi che possiamo definire democratici è caratterizzata dal consenso della maggioranza, vale a dire da un’accettazione consensuale dei programmi del gruppo.

La leadership dei gruppi improntata al laissezfaire si caratterizza dalla mancanza di una vera dirigenza.  In questi gruppi la leadership si limita, in pratica, a far emergere e a gestire le iniziative dei sottogruppi.

 

Ricordiamo anche una particolare forma di gruppo, i gruppi di riferimento.

Sono quei gruppi che s’ispirano all’opera di altri gruppi.  Possono essere gruppi di riferimento positivi o negativi.
Quelli positivi, in genere, si possono definire ed appaiono dall’esterno come una specie di gruppi ideali.
Quelli negativi, invece, sono gruppi di riferimento con i quali prima o poi emergono delle tensioni che possono anche alimentare delle situazioni di conflitto.

È più raro, ma anche i gruppi negativi possono avere dei riferimenti non reali e, tra virgolette, ideali o utopistici.

 

In generale i gruppi di riferimento negativi compaiono in quei gruppi che si formano per reazione contro l’ambiente in cui vivono, per i motivi più diversi, sia materiali che ideologici, come nel caso delle sette sataniche, delle bande di tifosi o nelle organizzazioni criminali.

Fa scuola il mito di Al Capone o delle famiglie mafiose americane.      

 

Nelle forme di democrazia rappresentativa, come dovrebbero essere le democrazie moderne, una forma di gruppo di una certa importanza è il gruppo di pressione.   

Questi gruppi sono anche detti gruppi d’interesse

In genere sono strutturati nella forma del collettivo che si mobilita per difendere specifici tornaconti, anche ideali, come sono per esempio i gruppi ambientalisti.

Quando i gruppi di pressione sono organizzati e la loro azione è diretta in modo specifico ad agire sui centri di potere, con lo scopo di influenzare pubblicamente determinate scelte politiche, economiche o etiche, si definiscono lobby.

Questi gruppi di pressione organizzati sono tipici dei paesi di lingua inglese, in cui la corruzione (sotterranea) è severamente sanzionata e le lobby sono, in qualche modo, istituzioni formali accettate, se non altro come un male minore che si vede e che si può contenere.

Il tema dei gruppi nelle scienze sociali è legato a un altro grande tema, quello delle gerarchie sociali.

Qui, non abbiamo il tempo per approfondire i motivi, oltre a quelli economici, per i quali  nelle società si formano le gerarchie, anche perché questo è più un argomento di antropologia e di teorie politiche che di sociologia generale.
Alla sociologia compete piuttosto lo studio della posizione sociale di un individuo o di un gruppo all’interno di un sistema di relazioni che formano la struttura sociale di una società.

 

Nella società occidentale va anche costatato, a partire dalla seconda metà dell’800, una costante trasformazione dei ceti in classi
Questa metamorfosi costituisce uno degli effetti della rivoluzione industriale e delle forme di democrazia che in essa si sono sviluppate. 
La rivoluzione industriale, di fatto, contribuì a ridurre ogni differenza sociale ai soli fattori economici e all’effettivo controllo della ricchezza.

I suoi esiti sono ben visibili all’interno delle due classi che si affermarono come le due sole classi protagoniste della storia della modernità, la borghesia e il proletariato.

Va però notato come, da alcuni decenni a questa parte, nei paesi dell’area temperata del pianeta, le  si stanno disfacendo nella loro forma storica per ridisegnarsi su altri valori, come sono quelli della conoscenza e dell’accesso all’informazione e all’educazione. 


Il digital divide o divario digitale è il divario esistente tra chi ha accesso effettivo alle tecnologie dell’informazione e chi ne è escluso in modo parziale o totale. I motivi dell’esclusione 

comprendono diverse variabili: condizioni economiche, livello d’istruzione, qualità delle infrastrutture, differenze di età o di sesso, appartenenza a gruppi etnici diversi, provenienza geografica. 

Oltre a indicare il divario nell’accesso reale alle tecnologie, la definizione include anche disparità nell’acquisizione di risorse o capacità necessarie a partecipare alla società dell’informazione. 

Il termine digital divide può essere utilizzato sia per riferirsi ad un divario esistente tra diverse persone, o gruppi sociali in una stessa area, che al divario esistente tra diverse regioni di uno stesso stato, o tra stati (o regioni del mondo) a livello globale.

Il termine è apparso per la prima volta all’inizio degli anni Novanta negli USA in alcuni studi che indicavano come il possesso di personal computer aumentasse in modo significativamente differente tra i gruppi etnici. 

Il concetto di divario digitale è poi entrato nell’uso comune quando il presidente americano Bill Clinton e il suo vice Al Gore lo utilizzarono durante un discorso tenuto nel 1996 a Knoxville, in Tennessee. 


Questi nuovi scenari daranno vita ad altre forme di conflitto tra le quali, di una certa importanza, saranno:

– quelle di natura generazionale che coinvolgeranno i cosiddetti nativi digitali,

– quelle tra i localismi,

– quelle legate all’equa redistribuzione delle risorse naturali, come da tempo è il caso del petrolio e di recente dell’acqua o del controllo climatico.   

 

A questo proposito ricordiamo che i paesi della fascia temperata del pianeta terra costituiscono un terzo della popolazione mondiale e consumano i due terzi dell’energia totale prodotta.
In un rapporto del 2006 delle Nazioni Unite sulla distribuzione del benessere economico si afferma che l’uno per cento della popolazione mondiale detiene il quaranta per cento del patrimonio finanziario e immobiliare mondiale, mentre il cinquanta per cento della popolazione mondiale accede solo all’uno per cento della ricchezza planetaria.

 

È indubbio che, in questo scenario, uno degli obiettivi delle scienze sociali dovrebbe essere quello di contribuire a rielaborare degli stili di vita che consentano di riequilibrare questo stato di cose prima che sia troppo tardi.

 

DEFINIRE LA CULTURA, UNA NUOVA PROSPETTIVA,

Abbiamo detto:

Fino a qualche anno fa il modello di cultura era un modello statico composto sostanzialmente dai dati storici e empirici raccolti e sedimentati a partire, per indicare una data, dalla celebre definizione dell’antropologo inglese Edward B. Tylor, contenuta nel libro Il concetto di cultura del 1871. 

 

Dice Tylor: La cultura o la civiltà intesa nel suo senso più ampio è quel complesso che include la conoscenza, le credenze, l’arte, il diritto, il costume e qualsiasi altra capacità e abitudine acquisita dall’uomo in quanto membro di una società o di una comunità. 

 

Dopo Tylor le definizioni si sono moltiplicate – negli anni cinquanta del secolo scorso erano già più di duecento – ognuna delle quali sottolineava o rimarcava un tratto particolare o un aspetto della vita quotidiana come la vita di gruppo, i costumi, gli usi, le cerimonie, le norme, i valori le fedi o i rituali.    

 

Ora, in prospettiva, possiamo dire che tutte queste definizioni di cultura in qualche modo erano più o meno adeguate a descrivere delle società piccole, omogenee e chiuse.

Ma soprattutto erano definizioni adeguate a disegnare la cultura degli altri.

 

Successivamente la velocità e i numerosi cambiamenti intervenuti, soprattutto nell’ambito della cultura occidentale a partire dalla seconda metà del secolo scorso, hanno in qualche modo portato alla luce e disegnato un mondo costituito da realtà separate le une dalle altre, e dai caratteri specifici e definiti.

Realtà delimitate da confini, reali e simbolici, confini netti e difficili da ridurre a un unico paradigma.

 

Un paradigma rappresenta un modello di riferimento o, meglio, una matrice disciplinare che delimita il campo, la logica e la prassi della ricerca nell’ambito di un argomento scientifico, in questo caso il concetto di società.   

 

Diciamo che per molto tempo la coincidenza di territorio, cultura, lingua e popolo – che si intravede dietro questo modello, sostanzialmente ideologico e politico – ha rappresentato una delle più forti motivazioni ideali, politiche e economiche per la nascita, la costruzione e la giustificazione degli Stati nazionali.

 

Un modello che sta alla base di molte opere letterarie, artistiche e musicali, come di rivendicazioni, conflitti ribellioni.

Un modello che ha dato vita a delle analisi politologiche, economiche, sociologiche di costume, analisi che hanno alimentato rimpianti, nostalgie e rivendicazioni di ogni genere.

 

Con il ventunesimo secolo è in modo piuttosto accelerato c’è stato un radicale sovvertimento del rapporto tra gli spazi nazionali, i territori e gli spazi sociali.

 

Questo sovvertimento – soprattutto nell’opinione pubblica – ha generato il convincimento che i linguaggi, le pratiche culturali, le relazioni sociali, i patrimoni simbolici, i manufatti siano radicati non già nello Stato nazionale ma in luoghi geograficamente ben definiti.

 

Soprattutto fuori dall’Europa storica i violenti conflitti etnici che sono scoppiati hanno rivelato, con un certo sgomento, che lo Stato nazionale è spesso un coacervo di gruppi etnici diversi, quasi sempre in polemica o in conflitto, gruppi assimilabili a “comunità immaginarie” più che a un tessuto di comunanze sviluppate e omogenee.

 

Come oggi è facile costatare molti Stati sono attraversati da tensioni separatiste, altri sono messi in discussione da realtà locali in concorrenza tra di loro altri ancora sono minacciati, soprattutto sul piano economico, da autorità sovra-nazionali.

 

Ha scritto il filosofo e sociologo tedesco Jürgen Habermas :  Uno dei principi più importanti elaborati negli ultimi due secoli dello scorso millennio – la nozione di sovranità della coppia Stato/Nazione – è stata messa in discussione e si è differenziata frantumandosi tra autorità locali, regionali, nazionali, globali.

 

Le nuove e massicce forme di migrazione, i nuovi sistemi di comunicazione digitale, le nuove strategie finanziarie, i nuovi assetti politici sono paradigmi che attraversano i vecchi confini e generano nuove pratiche socioculturali e una inedita multipolarità territoriale.

 

Va da se, nella storia questi paradigmi sono sempre esistiti dislocati in aree più o meno vaste e formate dagli stili di vita, dalle relazioni sociali, dagli orientamenti ideologici, dai sistemi simbolici, da manufatti e artefatti diversi, ma avevano una caratteristica: quella di poter essere iscritti in un unico schema di comprensione e di elaborazione comune più o meno condiviso o accettato.

 

L’esempio classico è il ruolo attivo e organizzativo delle religioni, a partire dalla chiesa cattolica.  Così come il ruolo giocato dai grandi imperi o, nel minuscolo, dalle tradizioni.

 

Oggi è diverso.  Le idee si sono globalizzate, così gli stili di vita e la loro evocazioni all’esotico tende a diventare moda.

Le ragioni sono evidenti a partire dai sistemi di comunicazione di massa in tempo reale, dalle nuove tecnologie di trasporto, dai movimenti reali – spontanei o forzati – e dai movimenti virtuali di centinaia di migliaia di individui spinti a immaginare le nuove Bengodi, i nuovi paesi di Cuccagna, le nuove Calicut dello spettacolo.  Spinti a sognare nuove patrie e nuove opportunità di vita e di lavoro.

 

Individui che fuggono guerre, carestie, persecuzioni religiose, repressioni politiche, disastri climatici e ambientali.

 

Individui su cui si innesta – anch’essa globale e multilocale – una circolazione vertiginosa e caotica di immagini, idee, oggetti, usi, consumi e costumi che i vecchi rivoluzionati del 1968 chiamavano il regno o meglio la dittatura della forma di spettacolo.

 

Tutta questa dislocazione di vissuti, progetti, merci, sogni e la concomitante coesistenza nella stessa area di mutazioni e fluidificazioni culturali e sociali di difficile definizione ha di fatto banalizzato (svalutato) il paradigma che presupponeva una coincidenza tra cultura e territorio. 

 

Sono processi inediti e ancora incontrollabili perchè riguardano l’intero pianeta.

Processi che hanno dilatato all’intera umanità collegamenti, informazioni, mobilità, aspettative di consumo che sono sempre esistite, ma un tempo limitate alle élite (soprattutto imprenditoriali e finanziarie) di piccolissime aree del mondo occidentale.

 

Realisticamente non tutti sono nomadi, ma è anche vero che non tutti vivono nello spesso mondo o nello stesso sogno post-moderno.

 

Così come è vero che solo un numero ridotto di individui vive sino in fondo i processi della globalizzazione, infatti, molta parte dell’umanità è ancora oggi dominata dai processi localistici ancora presenti e diffusi da per tutto, spesso degradati o limitanti.

 

Non è difficile costatare che milioni e milioni di persone vedono sempre più ridursi le opportunità di poter vivere  confinate giocoforza nei micro-territori dove sono nate e cresciute.

 

Tuttavia, le élite del pianeta – politiche, finanziarie, manufatturiere, militari, religiose, culturali e scientifiche – s’identificano ogni giorno di più, assumendo come modelli di vita, da elaborare, proporre, imporre, i processi (a loro vantaggiosi) della globalizzazione.

 

Che cosa comporta tutto questo al di là dell’epifenomeno del nomadismo di élite?

Che le differenze – profonde e devastanti – che affliggono il mondo assumono fisionomie, percorsi, esiti assolutamente diversi dal passato.

Soprattutto fanno saltare le contrapposizioni binarie, quelle tra culture dominanti e sub-culture, centri e periferie, una certa visibilità tra colonizzatori e colonizzati.

 

Dal punto di vista dell’identità i nuovi confini socio-culturali sembrano spostarsi in continuazione senza alcuna linearità.

Per esempio i processi di globalizzazione a livello economico e politico da una parte tendono a svalutarsi, dall’altra vengono riproposti per fermare i flussi migratori, per qualificarli e regolarli, così come molto spesso diventano barriere per frenare contatti eversivi, rivoluzionari o criminali.

 

Va anche rilevato un curioso fenomeno.

Un tempo le diversità culturali, in generale, andavano incontro all’assimilazione o al rifiuto, oggi invece si manifesta nei loro confronti una volontà mimetica, gli avversari dell’Occidente tendono a imitare gli stili di vita e a volere i beni e le tecnologie che l’Occidente produce, feticizzandoli.

 

Possiamo dire che non solo i beni di consumo e i divertimenti sono globalizzati, ma anche i prodotti digitali e – a livello degli stili di vita – la passività politica, la sottoistruzione, così come, a livello abitativo, le bidonville, i campi profughi stabilizzati, gli accampamenti frutto di stati di eccezione.

 

D’altro canto, scrive Arjun Appadurai – un antropologo inglese di origine indiana – appena le forze innovatrici provenienti dalle aree metropolitane sono portate all’interno di nuove società, tendono, in un modo o nell’altro, a subire un processo di indigenizzazione.

 

Questo processo riguarda la musica come i stili abitativi, i procedimenti scientifici come il terrorismo, gli spettacoli come i prodotti alimentari di massa.

 

In altri termini si da il caso che singole culture possono riprodursi o ricostituire la loro specificità sottoponendo le forme culturali transnazionali a un processo di indigenizzazione.

 

A questo proposito va notato che in termini antropologici il concetto di deterritorializzazione è estremamente dinamico e veloce.

 

Come ha notato il filosofo e sociologo polacco Zygmunt Bauman, nella contemporaneità i processi e i prodotti culturali tendono a svincolarsi dalla loro aderenza a un particolare spazio, perdono la loro identità territoriale, divengono mobili e a volte liquidi.

 

Più che la campagna è la città che sperimenta questi processi di globalizzazione.

Li sperimenta nei suoi ritmi di vita, nelle relazioni tra i gruppi – sociali, generazionali, etnici e sessuali – che la abitano.

 

Oggi, la pluralità culturale della città affonda anche nella costante presenza di localismi e nella continua elaborazione urbana del rapporto tra il locale e il globale.

 

Diciamo che il tessuto urbano fornisce lo sfondo, i materiali e le occasioni alla celebrazione di rituali propri di ogni gruppo sociale che vuole affermare sia la sua diversità che il proprio inserimento nel contesto in cui si trova a vivere.

 

In questo contesto i mezzi di comunicazione di massa svolgono un’azione di moltiplicazione,  immettendo gli eventi e i loro protagonisti nella rete (culturale e digitale) che congiunge i diversi luoghi in cui risiedono i gruppi emigrati dalle stesse patrie e figli della stessa lingua.

 

È facile intuire come tutto ciò alimenti, musiche, vestiario, produzioni artistiche e artigianali, esperienze cucinarie che possono nascere sia come rimpianto, sia come rivendicazione di separatezza identitaria.

 

É anche facile intuire come la realtà urbana tende a rendere tutti complici di un mercato sempre più vorace, trasformando questi gruppi in oggetti/merci di processi globali.

 

In queste condizioni completamente nuove la cultura – da quella di élite a quella diffusa dai mezzi di comunicazione di massa – ha anche cambiato tempi, modi e luoghi della sua produzione.

 

Essa può ancora conservare qualcuna delle sue radici, ma deve saper assimilare anche i nuovi paradigmi transnazionali e deterritorializzati che in qualche modo l’affiancano, le si sovrappongono o la penetrano affinché le sue dimensioni culturali, intese come sistemi di significati socialmente organizzati, siano accettate e condivise divenendo parte sia delle “radici” che dell’alterità che continua a riprodursi.

 

Così i confini della colonizzazione continuano a essere territoriali e economici, ma essi vengono mescolati, sovvertiti e resi opachi dalla produzione di un immaginario – nella forma spesso di un orientalismo esotico – e da forme di comunicazione sempre più efficaci.

 

In questo contesto lo studio della cultura è proiettato su dei nuovi paradigmi aperti dai processi di globalizzazione.

Per esempio si è svalutato lo studio della cultura per aree geografiche specifiche e si è sviluppato un dibattito sulle diaspore, sugli esili, sui movimenti migratori che hanno individuato i caratteri e gli ambiti dei nuovi nomadismi.

 

Ancora, sono emerse delle ricerche sul ruolo della memoria nella formazione dei nazionalismi, sono stati fatti degli studi sulle nuove articolazioni di centro e periferia e sulla crescente difficoltà a applicare i “diritti umani” davanti alla relatività delle culture.

 

Per concludere, oggi, voler studiare le nuove relazioni tra cultura e territorio implica dover porre l’accento sui processi del nomadismo contemporaneo a livello globale e a livello locale con particolare attenzione alla vita corrente, ai sogni, alle speranze e ai vissuti.

 

Appendice.  Esotismo e globalizzazione, con particolare riferimento al tema alimentare.

 

Anthelme Brillat-Savarin (1755-1826) politico e gastronomo francese diceva, fammi vedere come mangi e ti dirò da dove vieni.

 

L’esotismo oggi è penetrato nella nostra vita corrente come valore e come abitudine legata agli atti alimentari.

 

Anche al di fuori dei centri urbani delle grandi città molti prodotti e piatti esotici sono oramai a disposizione della nostra tavola.
I motivi per i quali questo modo di mangiare attrae sono diversi.
– L’esotismo alimentare consente di variare il nostro menu.
– Ci permette di consumare prodotti sui quali abbiamo fatto un investimento salutare se non addirittura terapeutico.
– Ci fa viaggiare con la fantasia o ci ricorda il tempo delle vacanze.

 

Cosa vuol dire esotismo lo sanno più o meno tutti, definire la parola è più difficile.

 

Alla base della parola esotico (dal greco exôtikos) c’è la radice greca exo, che significa “al di fuori” e che forma l’espressione greca che indica ciò che è straniero.

 

Dal greco, poi, questa parola passò nel latino (exoticus) e successivamente nelle lingue moderne, modificando in parte il suo significato che diventò quello di una “distanza geografica”, di una “seduzione” che deriva dall’alterità culturale.
La parola esotico, che compare – a proposito di certe merci – addirittura in François Rabelais (1494-1553), il grande scrittore e umanista francese considerato uno dei protagonisti del Rinascimento, divenne usuale solo a partire dal 1700, due secoli dopo la scoperta delle Americhe e sei secoli dopo le crociate che, non dimentichiamolo, ci fecero conoscere le arance, i limoni, i datteri, le banane e i fichi.

 

Nella seconda metà dell’800, poi, l’esotismo si mutò in un carattere che evoca costumi e paesaggi lontani e si coniugò con le imprese coloniali agendo in un contesto dove l’etnocentrismo era pensato e vissuto come un’evidenza morale, religiosa, politica e culturale dell’Europa.

 

Anche nel costume l’esotismo mostrò il suo fascino.

Le cineserie trionfarono nella porcellana e negli accessori di moda.
Claude Monet ha struggimenti per tutto ciò che è giapponese.
I pittori cubisti s’inspirano all’arte africana.
Paul Gauguin si vanta di dipingere l’”autenticità” polinesiana.
Lo stile egizio dominò i salotti della buona borghesia.

 

Non è un vero e proprio riconoscimento dell’altro lontano, ma piuttosto una civetteria.
L’Occidente ha sempre definito l’esotismo come un richiamo ai sapori, ai sensi, alle atmosfere, mai ai saperi.
Fu vissuto all’inizio della modernità come qualcosa di secondario, di periferico, di superfluo e in qualche modo d’inessenziale, per questo, alla resa dei conti, non riuscì mai ad essere più di un’attitudine.
Come da più parti si è sottolineato, nell’Ottocento europeo e in buona parte nel Novecento, è nella sostanza, “un elogio nel disprezzo”, o meglio, un elogio nell’ignoranza di chi è l’Altro da noi, un Altro che ci resta sconosciuto o tutto al più ridotto a stereotipo.

 

In questo contesto nacque anche una sua variante, l’orientalismo, che è un genere di esotismo che amalgama tutto ciò che sta all’est dell’Europa e nel nord dell’Africa.

 

Naturalmente l’esotismo è un concetto instabile nel tempo, più la cultura degl’altri è conosciuta, in particolare, la loro cultura e le loro tradizioni materiali (cucina, musica, abbigliamento, abitudini sessuali…), meno questa cultura resta straniera e misteriosa.

Più ci è vicina, meno è esotica.

 

Al tempo dell’espansione coloniale i prodotti alimentari rappresentarono un terreno sul quale l’esotismo dilagò dando vita ad una vera e propria corsa ai prodotti coloniali.
Ancora oggi in Europa (Milano compresa) ci sono negozi che anacronisticamente inalberano l’insegna di “La Coloniale” o di “Compagnia delle Indie”, con riferimenti espliciti alle spezie, al rum, al caffè, alle banane, al cioccolato, alle arachidi.

Così come, sia pure con valenze diverse, il carattere di esteriore di straniero di esotico è ancora molto usato per classificare, attirare e vendere.
Ciononostante si è anche sviluppata, una forte spinta all’assimilazione, vale a dire, si tende sempre di più a consumare i prodotti stranieri nello stesso contesto dei prodotti nazionali, assimilandoli nelle procedure cucinarie, cerimoiali e negli stili di vita che ci sono familiari.

 

Questa assimilazione, frutto di strategie commerciali, ha come conseguenza la provincializzazione dell’esotico.
Un ossimoro che indica come in un’epoca dominata dalla globalizzazzione non c’è più nulla di “straniero” nel cous cous o nel taboulé, come nell’uso del curry.
Non c’è più nulla di stravagante nella cucina cinese o nel fatto che si diffondono ristoranti con menu etnici.
Semmai è stravagante il modo con il quale queste cucine sono re-interpretate.

 

In breve, il significato di esotico ha perso il suo contenuto di indigeno, per istallarsi saldamente all’interno del villaggio globale così come è stato a suo tempo definito da McLuhan.

 

C’è anche da osservare che oggi la cucina, in cui domina una preoccupazione estetica più che il suo bilancio proteico, se vuole essere voluttuaria o gratificare le spinte naturiste ha sempre più bisogno di prodotti provenienti da altri territori e questo ha contribuito a crearne un mercato in costante espansione.

 

Ma che cos’è esotico rispetto a noi?
Una ricerca di qualche anno fa di Faustine Régnier, che dirige il laboratorio di ricerche sui consumi alimentari dei francesi, ha rilevato che da un punto di vista geografico per le massaie francesi sono esotici i paesi dell’Europa del sud, da cui ricavano circa il ventotto per cento delle ricette della loro cucina, i territori francesi d’oltremare, con un undici per cento di ricette e, poi, l’Europa Occidentale, gli Stati Uniti, l’Estremo Oriente, le Indie e via di seguito fino all’Africa Nera e all’Indonesia che partecipa con un meno dell’uno per cento con i suoi piatti alla tavola d’oltralpe.

 

Se poi si osservano questi dati in dettaglio, per le massaie francesi, il sessantacinque per cento delle ricette esotiche del sud dell’Europa sono italiane.
Questo rivela come l’esotismo è soprattutto un’opinione o meglio un’opinione che fluttua con le mode.

 

Oggi, con il turismo di massa l’esotismo cucinario si è espanso e rafforzato.
Rinvia sempre ad un altro luogo che l’immaginazione ci fa credere misterioso o poco conosciuto.

 

Come osserva Régnier, l’esotismo seduce perché permette di viaggiare il tempo di un pasto, si situa agli antipodi del mondo quotidiano ed appare seducente tanto più è diverso da esso.

 

Tzvetan Todorov, un filosofo bulgaro che vive in Francia ed esperto di filosofia del linguaggio, ha elaborato una regola, detta di Omero, secondo la quale il paese più lontano è sempre il migliore.

 

In cucina questa “lontananza dalle solite cose” non è però negativa, combatte la passività e la noia e spesso ha un effetto paradosso, perché sollecita a ripensare la tradizione.

 

Di solito si parla di esotismo per indicare delle strategie che permettono di viaggiare nello spazio, ma esso può ugualmente farci viaggiare nel tempo.

 

Yvonne Verdier, una grande antropologa francese, parla di un esotismo storico.
Di un tempo delle origini che evoca e affabula e che ritroviamo soprattutto nella cucina della tradizione popolare e contadina.

 

Un esotismo che le mode riconducono spesso ad una aneddotica superficiale che si mescola con il folclore e che rende piacevoli le immagini del passato accrescendone la seduzione.

 

Da qui il crescente successo, anche politico, di fiere, sagre, carnevali, rassegne ed altro, che scavano nei localismi e in qualche modo resuscitano ricette, cibi, preparazioni desuete, cerimonie.

 

Ancora, l’esotismo non è solo un viaggio nello spazio e nel tempo, può anche essere un viaggio nelle parole e nella lingua.
Come diceva la Verdier, sono i nomi che fanno la differenza e creano somiglianze e distanze che giocano sui registri più diversi.
Un celebre aforisma di Claude LéviStrauss, dice che un cibo non può limitarsi ad essere buono solo da mangiare, deve essere buono anche da pensare.

In questo senso l’uso e l’abuso in cucina di espressioni straniere e di gerghi ha il solo scopo di accrescere il mistero e l’aura di un piatto, soprattutto quando, di queste espressioni, non ne conosciamo il senso.

 

All’esotico, come ideologia della lontananza straniera, si contrappone un’altra ideologia, anch’essa molto forte, quella dei localismi e della nostalgia.

I nostalgici considerano il tempo-che-fu come un modello di equilibrio da preferire alla fluidità della modernità.

 

Siccome i cibi e gli stili di vita sono dotati di un significato di ordine sociale, morale ed economico molti vedono nel fallimento dei localismi il fallimento anche politico delle tradizioni regionali.

 

Molti nostalgici sono così divenuti preda della nostomania, come si definisce in psicologia la nostalgia quando diventa una patologia.
Preda cioè di quei sentimenti umorali che evocano con dolore l’attaccamento alla terra natale, le stagioni, il tempo, i colori del paesaggio.

 

Se li si osserva da vicino sono sentimenti senza un vero contenuto reale, ma esprimono il bisogno di dogmi e di simboli, vale a dire, di un patrimonio simbolico che sia in grado di favorire i modelli identitari.
Il cibo del tempo che fu è figurato come un nutrimento divino in cui si traducono molte speranze fallite, spesso manipolate dall’industria dei prodotti locali e biologici che, molto spesso non esitano a cavalcare la contestazione.
Così il mito del territorio arriva molte volte a rivendicare identità gastronomiche che sono vissute come se fossero di una volta, anche se do fatto non sono altro che invenzioni di oggi.

In questo contesto, paradossalmente, saper tracciare una linea di demarcazione tra realtà e finzione, storia locale e mito significa sapere ciò che si mangia.

 

Va osservato che questo attaccamento alla tradizione alimentare antica è ancorata a dei valori sociali simbolici, morali e religiosi che fanno perno sull’attività agricola.
Un attaccamento che se vogliamo possiamo addirittura far risalire alle Bucoliche di Virgilio o a un certo “realismo rustico” tipico della poesia diTeocrito (324c.a.-250), il poeta greco nato a Siracusa ed autore, tra l’altro, degli Idilli, trenta componimenti in esametri sulla vita quotidiana.

 

Più vicino a noi ricordiamo l’Emile di Jean-Jacques Rousseau che, in questa ottica, possiamo definire un’opera politicamente scorretta che fustiga la decadenza industriale, la crisi dei costumi e della morale, per difendere attraverso un ritorno alla terra, la riabilitazione di un’autentica ortodossia morale fondata sull’organizzazione rurale.

 

Insomma, la nostalgia e i localismi aureolano la terra di proprietà e di virtù, bagnate dal sudore contadino, e fanno del mistero della semenzaun’apologia dell’origine e della creazione, atrocemente uguale, sia pure su un altro registro, a quell’apologia artificiale della creazione delle grandi compagnie che producono organismi geneticamente modificati.

 


EUROPA – OCCIDENTE.

L’Europa è una regione geografica del nostro pianeta considerata un continente in base a fattori economici, geopolitici e storico-culturali.

Dal punto di vista fisico-geografico è l’estremità occidentale del continente eurasiatico, oppure una delle tre parti del continente Eurafrasia.

 

La storia e la cultura europea hanno influenzato notevolmente quelle degli altri continenti, verso i quali, a partire dal sedicesimo secolo, sono state frequenti e importanti le migrazioni, specialmente in America e in Oceania, dove, in alcune aree, gli europei hanno quasi sostituito le popolazioni locali.

 

Il termine Occidente, inteso come civiltà o società occidentale, ha designato, a seconda dei periodi storici, un’ area geografica e culturale comprendente grosso modo l’Europa e, in senso più esteso, tutti quei paesi europei ed extraeuropei che oggi presentano tratti culturali, economici o politici comuni, riconducibili al mondo greco-romano e ai principi cristiano-illuministici.

 

Il concetto di Occidente, storicamente, si forma in coincidenza con l’inizio della cosiddetta modernità, cioè intorno al sedicesimo secolo e in concomitanza con le grandi esplorazioni geografiche e con l’inizio della penetrazione europea oltreoceano.

Il concetto di Occidente, in questa stagione, sostituisce quello medioevale di “cristianità”, entrato in crisi in seguito alla “riforma protestante”.

 

Il concetto di Occidente è stato spesso considerato come arbitrario ed ideologico.  Una costruzione storica e sociale priva di un effettivo riscontro reale.

L’esempio più noto è forse quello di Edward Said (1935-2003), un docente di letteratura comparata, di origine palestinese, che ha insegnato in America alla Columbia University, che nel saggio Orientalismo descrive fondamentalmente l’Occidente come la creazione di una identità opposta ad un’altra vaga identità orientale, volta a legittimare i domini imperialisti e coloniali.

 

Una prova di ciò può essere considerata la mancanza di una effettiva unità etnica o culturale del cosiddetto Occidente, l’estrema difficoltà a cogliere gli aspetti accomunanti della composizione della cultura occidentale e la variabilità che nel tempo ha accompagnato la composizione della stessa presunta identità occidentale.

Secondo questo punto di vista, quindi, l’Occidente è solamente un costrutto volto a diffondere (e difendere) la concezione economica liberista, essendone apparentemente l’unica caratteristica realmente unificante.   A riprova di ciò, nazioni distanti geograficamente e culturalmente come il Giappone o la Russia sono state considerate nel tempo appartenenti all’uno o all’altro campo, quello “orientale” o “occidentale”, in base alla forma di teoria economica adottata.