Skip to main content

Fabio Bordignon: “Lega e Movimento 5 stelle? Divergenti sì, ma paralleli”

“Lega e Movimento 5 stelle? Divergenti sì, ma paralleli”

Una fotografia del voto del 4 marzo scritta da Bordignon, Ceccarini e Diamanti

Un’Italia giallo – blu, quella che si configura dopo le politiche del 4 marzo, a trazione leghista al centro – nord e con una forte affermazione del Movimento 5 stelle al centro – sud. Due insicurezze opposte ma complementari, una economica, connessa alla crisi, una culturale, legata alle migrazioni. Una diversa distribuzione delle paure, tra Lega e M5s, simmetriche ma speculari. Poi, populismo come opposizione tra popolo “puro” ed élite, soprattutto politiche, corrotte. Sovranismo come sinonimo di nazionalismo, oppure inteso nel senso di protesta, sia per problemi interni, come le migrazioni, che esterni, come l’ingerenza nello stato/nazione degli organismi sovranazionali. Inoltre, un modo di trovare le informazioni sulla campagna elettorale soprattutto attraverso la TV, ma anche, in modo preponderante negli under 30, attraverso siti Internet e social media, mentre “tiene” la comunicazione interpersonale. Poi, un’“affinità elettiva” tra Movimento 5 stelle e Lega, per cui un terzo dei loro elettori si dicono “attratti” dall’altro partito. Inoltre, una divisione in tipologie di elettori che vede i “perdenti della globalizzazione” soprattutto nei partiti vincenti, mentre il PD “macina” la tipologia opposta, quella dei “vincitori della globalizzazione”. Infine, la perdita di legittimazione dei partiti che porta ad una domanda di democrazia diretta attraverso i referendum, e ad una richiesta dell’uomo forte al governo. Dove porterà tutto questo? Forse a una leadership del centro – destra con a capo Salvini dopo nuove elezioni, ma senz’altro dopo le europee del 2019. Sono queste le parole di Fabio Bordignon, docente di Scienza politica all’Università di Urbino “Carlo Bo” e ricercatore di Demos & Pi, nell’illustrare il recente Le divergenze parallele, pubblicato per Laterza e scritto in tandem con Luigi Ceccarini e Ilvo Diamanti.

Le Politiche del 4 marzo 2018 hanno delineato, come si evince dalla Tabella 1, un’immagine dell’Italia giallo – blu, contro quella a tre colori (blu, rossa, gialla), sostanzialmente tripolare, delle Politiche del 2013. Come mai questo cambiamento?

Tabella 1

 

COALIZIONE VINCENTE NEI COLLEGI UNINOMINALI

(Camera dei deputati)

Dalla rappresentazione cartografica sono esclusi i collegi delle province di Aosta e Bolzano.

Fonte: Osservatorio Elettorale Demos-LaPolis (Univ. di Urbino) su dati del Ministero dell’Interno

Un cambiamento nel senso della continuità, perché l’assetto del sistema politico è ancora tripolare, tuttavia con due poli, Lega e Movimento 5 stelle, preponderanti rispetto al terzo, cioè il centro – sinistra. Il M5s, che aveva dato il segno alle elezioni politiche precedenti, si conferma soggetto nazionale, ma il suo impianto territoriale si sbilancia significativamente verso il sud e le isole (zona gialla). Dall’altro lato la Lega di Salvini, che riesce nell’impresa di delocalizzare il localismo (zona blu). Questo blu del centro – destra è diverso da quello del 2013, in quanto è il blu scelto come colore dalla Lega, e prevale nettamente all’interno della coalizione. Il suo riferimento territoriale non è più costituito dal Nord, dalla Padania con i suoi riferimenti simbolici (il verde), ma dall’Italia secondo una prospettiva nazionale o, secondo alcuni, nazionalista o sovranista.

Cosa si intende per populismo, che è stato la parola – chiave di queste elezioni insieme a sovranismo? Si può parlare di un populismo di destra (Lega) e di uno di sinistra (Movimento 5 stelle)?

Per populismo s’intende un discorso politico che vede una presentazione dicotomica della realtà politica che distingue tra popolo inteso come popolo portatore di valori positivi da un lato, e dall’altro le èlite considerate come soggetti corrotti. Questo, che è il nucleo ultimo del populismo, ha a che fare con la definizione stessa di democrazia, nel senso che il populismo non fa altro che evocare il mito di una democrazia ideale, intesa come autogoverno del popolo, e allo stesso tempo puntare il dito contro i vizi della democrazia nel modo in cui concretamente funziona. Se la democrazia come la conosciamo nella fase moderna, traccia una linea di demarcazione tra titolarità del potere politico e suo esercizio, il populismo cancella questa linea di distinzione e richiama l’idea di un governo rimesso completamente nelle mani del popolo. E l’idea di sovranità collegata a questo tipo di proposta può essere vista sia in riferimento all’esercizio del potere all’interno dello stato nazionale, sia anche alle dinamiche che attengono al rapporti tra stati. Questo spiega perché tutti i soggetti che oggi definiamo come populisti o sovranisti sono allo stesso tempo, se non antieuropei, euroscettici, in quanto sottolineano il ruolo esercitato da organismi sovranazionali nel sottrarre spazi di manovra ai veri stati nazionali. In questo senso poi esistono sfumature in parte ricollegabili alle tradizionali categorie politiche di destra e sinistra. La Lega è associabile a quello che è un populismo di destra, che ha una tradizione molto più lunga sulla scena europea, mentre farei più fatica a parlare, nel caso del M5s, di populismo di sinistra: piuttosto parlerei di un soggetto politico che mixa al proprio interno elementi di populismo sia di destra che di sinistra.

Per quanto riguarda il sovranismo, alcuni ritengono che ci si possa sbarazzare di questa categoria, sostituendola invece con la vecchia categoria del nazionalismo. Tuttavia, ho l’impressione che oggi i soggetti che si rifanno a questa prospettiva siano in parte diversi dai vecchi attori nazionalisti, in quanto le loro proposte non riguardano tanto l’esaltazione dell’identità nazionale in contrapposizione ad altre. Certo, c’è anche questo, ma tuttavia questa prospettiva concerne la critica a dinamiche che attengono sia ad una dimensione interna, cioè a ciò che avviene all’interno dei singoli stati, sia a una dimensione sovranazionale, che depriva il popolo delle proprie prerogative e del proprio ruolo. Quindi la migrazione nell’accezione più usuale viene vista in senso critico, ma c’è anche un altro tipo di migrazione che è criticata dalla prospettiva sovranista, ossia quella del potere dalla dimensione nazionale a quella sovranazionale. In questo senso c’è una critica molto forte degli attori economici che limitano gli ambiti di manovra degli stati nazionali, ma anche, come dicevo prima, del ruolo delle istituzioni sovranazionali che deprivano il popolo della propria sovranità. Questo tipo di approccio spiega anche perché populismo e sovranismo s’incontrano sullo stesso terreno.

Come si sono informati gli elettori italiani (v. Tabella 2)? È vero che i social media stanno superando, nelle fasce più giovani (18 – 29), anche la TV?

Tabella 2

POLITICHE 2018: LE FONTI DI INFORMAZIONE

Con che frequenza, nel mese precedente il voto, lei ha ricevuto informazioni sulla campagna elettorale per le elezioni politiche dalle seguenti fonti? (v. %)

Fonte: Osservatorio Elettorale Demos-LaPolis (Univ. di Urbino), Marzo 2018 (base:1.503 casi)

La televisione rimane assolutamente predominante rispetto a tutti gli altri mezzi: l’88% degli intervistati dice che si è informato attraverso essa, e questo tipo di dato è strutturale e non cambia. È vero però che i canali che riguardano il web sono fortemente cresciuti dal punto di vista della loro presenza. Nel 2018 il 53% della popolazione in età di voto dichiara di essersi informata attraverso questi canali, e c’è una crescita di 30 punti percentuali se mettiamo a confronto il dato di quest’anno con quello delle politiche del 2008. Tuttavia, se noi isoliamo la componente dei più giovani, la rete ha già superato la TV: oltre il 90% degli under 30 afferma infatti di essersi formato un’opinione politica attraverso questo tipo di canale.

Christopher Cepernich (Università di Torino) sostiene che la campagna porta – a porta è ancora un desideratum In Italia, mentre ha fatto la fortuna di Obama. Quanto da lui detto mi sembra confermato dai vostri dati…

Sì: si parla di una dinamica di lungo periodo che riguarderebbe l’americanizzazione della politica italiana. Tuttavia, ciò sembra essere in contraddizione rispetto ad alcune modalità di conduzione delle campagne elettorali USA, che riscoprono alcune modalità di azione tradizionali che invece in Italia sono state abbandonate negli ultimi anni. Se guardiamo infatti alle modalità più tradizionali rilevate dai nostri dati, quali le informazioni attraverso manifesti elettorali, i depliant, le manifestazioni politiche a cui gli intervistati hanno partecipato o il contatto diretto con i candidati, si tratta di percentuali molto esigue. In particolare, la componente che afferma di essere entrata in contatto diretto con un candidato si aggira intorno al 14%, con percentuali significativamente più basse rispetto a quelle degli altri mezzi di comunicazione. Tutto ciò è segnalatore di un trend di lungo periodo che vede la politica sempre più lontana dai luoghi di vita dei cittadini, come diceva appunto Cepernich.

Più in generale, al di là della specifica questione che riguarda il porta – a – porta, rimane scoperta quella che concerne il presidio del territorio, dove però i partiti oggi sembrano del tutto assenti, anche quelli che avevano una lunga tradizione in questo senso.

Al contrario, appare notevole il ruolo della comunicazione interpersonale, che è aumentata di ben dieci punti percentuali rispetto al 2013…

Sì, questo è l’unico dato di tradizione che emerge in modo molto forte nella nostra indagine: il 65% delle persone intervistate dichiara di avere attinto informazioni sulla campagna elettorale dalle reti informali di relazione, quindi attraverso conversazioni con amici, in famiglia o con colleghi. Questo ci dice come non necessariamente tali informazioni politiche passano attraverso i media. Allo stesso tempo, però, ci segnalano come, nel momento in cui i partiti devono intercettare forme di maggiore presenza sul territorio, queste devono passare attraverso canali più informali che non si traducano nelle appartenenze formali come quelle del passato. C’è quindi bisogno di innovazione dal punto di vista del repertorio d’azione, come del resto in parte hanno fatto, stanno facendo, i vincitori delle ultime elezioni.

Il vostro libro si intitola Le divergenze parallele, cioè le affinità – differenze complementari tra il partito di Di Maio e quello di Salvini. Tutto ciò è confermato anche dalle “affinità” dei due elettorati verso i rispettivi alleati (v. Tabella 3)?

Tabella 3

LEGA-M5S: LE AFFINITA’ ELETTIVE

Mi può dire quanto si sente vicino ai seguenti partiti? (v. % di quanti si sentono “molto o abbastanza vicini”, tra i simpatizzanti di ciascun partito)

Fonte: Osservatorio Elettorale Demos-LaPolis (Univ. di Urbino), Marzo 2018 (base:1.503 casi)                                                                                                        

Sì, ci sono molti elementi che ci portano a sottolineare da un lato la diversità di questi soggetti politici, dall’altro però anche la loro parziale vicinanza. Questo lo si vede dalle simpatie reciproche tra gli elettorati o tra i simpatizzanti delle due formazioni. Quasi quattro su dieci tra i simpatizzanti del partito di Salvini esprimono simpatie per il M5s (39%) e in modo del tutto speculare il 35% dei simpatizzanti del M5s vedono con favore la Lega. Esistono pertanto tra le due formazioni quelle che abbiamo chiamato “affinità elettive”, che spiegano la convergenza o le “divergenze parallele” all’indomani del voto. Questo sentimento di reciproca vicinanza si basa sul fatto che entrambi i partiti (o movimenti) attingono allo stesso bacino di malessere che ha fortemente caratterizzato le ultime elezioni. In particolare, esso ha una natura duale. Infatti si può collegare da un lato a fattori di tipo economico, riconducibili agli effetti della crisi ancora fortemente visibili in larghe componenti della società, e dall’altro a un malessere di tipo culturale, legato al fenomeno delle migrazioni e della presenza straniera sul territorio. Questi due elementi di crisi hanno contribuito ad annaffiare le radici dei due movimenti, consentendo loro un avvicinamento, tradottosi nel contratto di governo alla base dell’attuale governo Conte.

Luigi Ceccarini, parlando del 4 marzo, tratteggiava quattro tipologie di votanti: i vincitori della globalizzazione, i perdenti della globalizzazione (tipi “puri”), i vincitori comunitari e i perdenti cosmopoliti (tipi “misti”). Come si distribuiscono tra i quattro partiti maggiori (PD, FI, Lega, M5s)?

Questa è una tipologia che deriva dal tentativo di incrociare tra di loro le due dimensioni che citavo in precedenza, cioè da un lato un grado di soddisfazione/insoddisfazione nei confronti delle condizioni economiche, e dall’altro una propensione ad una società aperta contro una predilezione verso una comunitaria, cioè chiusa rispetto alle dinamiche globali. Entrambe possono essere viste come riflesso delle dinamiche globali e delle conseguenze che esse producono sui cittadini. Ceccarini ha incrociato queste due dimensioni andando ad individuare quattro tipi, e cioè i vincitori della globalizzazione e i perdenti della globalizzazione. Questi ultimi sono quelli che combinano insoddisfazione verso il quadro economico (personale o familiare) e un orientamento verso una società chiusa. Invece i vincitori della globalizzazione sono quelli che in modo esattamente simmetrico e speculare hanno un grado di soddisfazione elevato rispetto alle proprie condizioni economiche e un orientamento cosmopolita verso una società aperta. Ci sono poi altri due tipi misti, definiti vincitori comunitari, cioè persone soddisfatte della loro situazione economica però orientate verso una società chiusa, e perdenti cosmopoliti, che presentano queste caratteristiche in senso inverso.

Per quanto riguarda le loro caratterizzazioni politiche, da un lato Lega e M5s sembrano esprimere un malessere in parte di tipo diverso, nel senso che la insoddisfazione sul versante economico tende a dare come esito politico il movimento di Di Maio, mentre la propensione alla chiusura si traduce in modo più esplicito verso la Lega. Se concentriamo l’attenzione sui perdenti della globalizzazione, e cioè il tipo “puro”, che combina entrambe le forme di tensione rispetto alle dinamiche globali, sia Lega che M5s sono significativamente presenti in questo gruppo. Tutto ciò sottolinea come il processo di formazione del voto per questi due partiti in realtà non segua due percorsi nettamente distinguibili dal punto di vista delle loro radici sociali ma, pur con diverse sfumature, combinino insieme elementi di crisi di tipo diverso ma che configurano un terreno comune.

Quanto a Forza Italia, presenta un profilo ibrido, che per molti versi è sovrapponibile a quello della Lega seppur portando questi tipi di atteggiamenti a livelli meno estremi, e ciò spiega anche perché il partito di Salvini sia oggi l’elemento trainante del centro – destra.

Per ciò che concerne il PD, si tratta di un partito che ha delle caratteristiche diametralmente opposte rispetto a quelle dei vincitori del 4 marzo. In generale vede maggiormente presenti nel suo elettorato elettori soddisfatti dal punto di vista delle loro condizione economica e propensione ad un approccio maggiormente orientato all’apertura. Questo fa sì che, detto in termini molto sintetici, il PD rappresenti i vincitori della globalizzazione però, proprio per questo motivo, non ha potuto figurare tra i vincitori di queste elezioni.

Emerge infine come circa la metà del campione da voi intervistato sia favorevole alla mancanza dei partiti politici a favore dell’istituto del referendum o di un uomo forte al governo. Come valuta tutto questo?

È un ulteriore dato emerso in modo molto forte il 4 marzo: il successo dei partiti vincitori riflette l’incapacità della democrazia di offrire risposte a questioni come l’economia e le migrazioni, però nello stesso tempo tende a produrre un’insoddisfazione più generale nei confronti della democrazia e del suo funzionamento. Tutto ciò si traduce in una domanda di forme più dirette di coinvolgimento del popolo, che passa attraverso ricette alternative: da un lato il coinvolgimento diretto dei cittadini attraverso i referendum, dall’altro tramite un rafforzamento della leadership e della sintonia tra i cittadini e l’uomo forte. Sono percorsi che possono sembrare fortemente lontani tra loro, ma che però sono entrambi riconducibili all’idea di ridurre al minimo il ruolo dei corpi intermedi. Tra questi il principale è rappresentato dai partiti che hanno svolto questo ruolo di filtro tra società e politica in passato, filtro che tende sempre meno ad essere tollerato da parte dei cittadini, che cercano forme più dirette di coinvolgimento e di protagonismo del popolo.

Alla luce di quanto emerso, visti anche i sondaggi che vedono la Lega superare il Movimento 5 stelle, a cosa porterà questa situazione?

Questo ha a che fare con la capacità di Salvini di occupare la scena dopo il 4 marzo e di saper imporre la propria figura in uno scenario incerto proprio come quello. Tutto ciò avviene all’interno di uno scenario che altrove ho definito vicepresidenziale, cioè nel quale la forza della leadership di governo si manifesta attraverso i due vicepresidenti. Tuttavia, tra i due, Salvini si è rivelato più abile nell’occupare la scena. L’evoluzione del consenso verso i due partiti testimonia questo tipo di capacità e ribalta i rapporti di forza iniziali, che davano la Lega al 17%. L’attuale ribaltamento ci dice quanto contino poi i leader e le persone nel determinare l’evoluzione del clima d’opinione e anche degli orientamenti di voto. Ciò potrà avere delle ripercussioni sulle dinamiche interne alla maggioranza nel momento in cui Salvini dovesse essere tentato di capitalizzare questo tipo di consenso attraverso un ritorno alle elezioni. Forse oggi, con gli equilibri attuali, se si tornasse a votare, un centro – destra a trazione leghista sarebbe in grado di conquistare la maggioranza, ma attualmente non vedo avvisaglie di questo almeno fino alle prossime elezioni europee del 2019.

MARIA GRAZIA FALÀ

 

La Polis

 

Antonio Tursi: “Fantascienza, in controluce conflitto politico”

“Fantascienza, in controluce conflitto politico”

Riletto il genere come specchio della sfera pubblica tra empatia e razionalità

Antonio Tursi

Osservare la connessione tra la politica e la fantascienza per leggere il conflitto politico legato alla nuova ridefinizione del corpo e dello spazio nello scenario delle tecnologie digitali. Dracula e il mostro creato da Frankenstein come espressioni delle inquietudini della società ottocentesca ma anche come prodromi della mutazione dei corpi del XXI secolo. La fantascienza come specchio delle insicurezze non avvertite dai contemporanei perché, come sostiene McLuhan, “i pesci non sono consapevoli dell’acqua in cui nuotano”. Poi, in Avatar, una politica empatica, che suscita emozioni, contrapposta a quella razionale tipica del pensiero liberal – democratico moderno. Infine, una situazione politica italiana che ruota intorno alle emozioni, sfruttate da tutti i politici, da Renzi a Salvini e a Di Maio.

“I due modelli (emotivo e argomentativo, volendo schematizzare) non sono negativi o positivi di per sé, ciò che è positivo o negativo, ciò che aiuta o meno la politica e i cittadini è comprendere il funzionamento dei media e della sfera pubblica”.

Con queste parole Antonio Tursi, dottore di ricerca e docente abilitato in Filosofia politica, conclude la sua intervista che commenta il suo Immagini del conflitto. Corpi e spazi tra fantascienza e politica, edito di recente da Meltemi, nella collana “Nautilus”.

Il suo libro si snoda attraverso “medaglioni” di vari autori di fantascienza. Qual è il filo portante?

I saggi che ho raccolto in questo volume riguardano autori, registi, romanzieri del genere fantascienza. Partendo da essi ho cercato di portare avanti un discorso sul rapporto tra la fantascienza e la politica. Nella fattispecie la fantascienza, come l’arte in generale, ma a maggior ragione la fantascienza per le sue implicazioni e gli oggetti di cui tratta, rivela la dimensione attuale del conflitto politico. Tale dimensione è ridefinita dalle tecnologie in generale e da quelle di comunicazione in particolare, tecnologie sulle quali la fantascienza si incentra ampiamente. Un fatto da sottolineare è che questo genere spesso viene avvertito come proiettato nel futuro o in altri pianeti, mentre condensa in immagini potenti, evocative, i conflitti del nostro presente. In particolare, quando parlo di conflitto politico, mi riferisco a due dimensioni che le nuove tecnologie hanno ridefinito in profondità.

La prima riguarda il tracciamento stesso dei nostri corpi. Il corpo non è una datità naturale, come spesso si tende a credere, ma una costruzione artificiale. Le nuove tecnologie di comunicazione, le tecnologie digitali, ma anche quelle biogenetiche, evidentemente, che hanno a che fare con il diretto intervento sul bios, ridefiniscono i confini del nostro corpo. Figure come quelle del cyborg, che la fantascienza ha reso disponibile negli anni, ci dicono qualcosa in proposito.

L’altra dimensione del conflitto riguarda la ridefinizione dello spazio in cui abitiamo e agiamo. Attraverso le nuove tecnologie siamo infatti immersi in un nuovo ambiente di vita, un ambiente digitale, virtuale, immateriale, che non è alternativo al tradizionale ambiente che percorriamo tutti i giorni, ma si integra con quello, arricchendolo e ridefinendolo.

Lei ha parlato di Victor Frankenstein e della sua mostruosa creatura, nonché di Dracula come paradigmi di una società positivista con le sue inquietudini legate alla nascente industrializzazione…

Il primo saggio del libro in effetti riguarda due potenti figure dell’immaginario occidentale, cioè il mostro del dottor Frankenstein e il conte Dracula, figure venute fuori dai romanzi di Shelley e di Stoker rispettivamente agli inizi del XIX secolo, nel 1818, e alla fine, nel 1897. Frankenstein e Dracula ci dicono qualcosa su ciò che il XIX secolo stava elaborando nelle sue viscere. Esso è l’epoca di una industrializzazione massiccia della società occidentale, una società che si pensa come macchina (ecco il positivismo) e che, nonostante ciò, o proprio a causa di ciò, riverbera delle inquietudini, nasconde qualcosa di perturbante, che appunto Frankenstein e Dracula condensano e ci mostrano. Il corpo del mostro creato da Frankenstein è costruito assemblando parti di cadaveri, quello di Dracula muta continuamente le sue forme. Mi è sembrato quindi che essi, colte queste caratteristiche dei loro corpi, potessero essere di interesse in quanto mostrano l’ibridazione e l’instabilità del soggetto moderno. Ibridazione e instabilità che arrivano sino a noi, in quanto mai come nel nostro presente i corpi sono ibridi e mutanti, sono corpi di cyborg. Insomma, i cambiamenti di oggi sono già mostrati in parte da queste figure del XIX secolo.

Lei legge Utopia di Thomas More (1516), Brave New World di Aldous Huxley (1932), Snow Crash di Neal Stephenson (1992) come riflesso delle inquietudini rispettivamente per l’instabilità della società mercantile di Enrico VIII, per l’orrore degli stati totalitari del XX secolo, e infine per l’accelerazione sfrenata del sistema capitalistico nel passaggio di millennio. È così?

Vale per questi testi quanto detto in precedenza: la fantascienza, o anche l’utopia che di essa è un po’ precorritrice, riesce a condensare quelle inquietudini, quei conflitti che non sono avvertiti dai contemporanei. In questo senso ci viene in aiuto Marshall McLuhan quando descrive il ruolo dell’artista affermando: “L’artista è l’unica persona in ogni epoca che osi guardare al presente, il resto del genere umano guarda nello specchietto retrovisore.” Chi si è cimentato nello scrivere queste opere ha saputo quindi guardare alle proprie società, anche se poi le ha trascritte in scenari futuristici o in altri luoghi (l’Utopia di More è ambientata in un’isola del nuovo mondo). In questo senso un altro passo di McLuhan proprio su questo dice: “È affascinante studiare la storia delle utopie, dove si pensava sempre di proiettare delle immagini ideali di epoche ancora da venire, mentre in effetti si tracciavano dei quadri ricchi di dettagli dei tempi appena trascorsi.” Questo vale per tutti i testi citati come anche per la Repubblica di Platone. Nel caso di More, lui ha di fronte una situazione inglese instabile, dove si iniziavano a “chiudere” le terre (enclosures), si delineavano i rapporti tra le religioni (tra la religione cattolica e quelle riformate), emergeva l’intenzione di affacciarsi sull’Atlantico e entrare nel Mediterraneo. Rispetto a questo mondo More traccia quelle che sono a suo avviso le deficienze, le lacerazioni, i conflitti, e cerca di compensarli nel suo mondo ideale che è Utopia.

La stessa cosa vale anche per Stephenson. Oggi il sistema capitalistico, segnato dalla finanziarizzazione, abbandona le fabbriche con la loro materialità, per proiettarsi nel mondo della finanza. Questo è un mondo immateriale, dove il denaro si virtualizza, e Neal Stephenson è stato tra i primi a cogliere questa dimensione altra rispetto a quella del capitalismo tradizionale. Il suo Metaverso (un mondo virtuale) è una delle prime immagini del mondo delle nuove tecnologie che noi abitiamo oggi quotidianamente e inavvertitamente. Come direbbe sempre McLuhan, “i pesci non sono consapevoli dell’acqua in cui nuotano”: noi non siamo consapevoli dell’acqua virtuale, digitale in cui nuotiamo.

Le preoccupazioni verso gli stati totalitari sono espresse anche da un altro testo spesso appaiato a Brave New World (“Il mondo nuovo/Ritorno al mondo nuovo”): si tratta di 1984, che descrive gli stati totalitari del XX secolo. Huxley, al contrario di Orwell in 1984, avverte che quelle dittature possono anche realizzarsi in modo diverso, cioè non attraverso una sorta di imprigionamento delle emozioni, delle capacità espressive dell’uomo, ma tramite un loro pieno dispiegamento. Tramite l’imperativo ad essere felici: questo è ciò che viene messo in evidenza da Brave New World, una sorta di contrappasso delle dittature del XX secolo. È un nuovo totalitarismo quello che Huxley immagina, un totalitarismo imperniato sul principio del piacere per cui bisogna per forza godere. Spesso (ma non sempre appropriatamente) questo principio viene indicato come fondamento della società consumistica, che non riconosceremmo immediatamente come totalitaria, ma in cui sembra vigere una sorta di imperativo ad essere felici, felici per forza. Un altro romanzo scritto un po’ prima di Brave New World e ad esso simile nei contenuti è Noi (“Noi”) di Evgenij Zamjatin. In questo volume, che è un’altra visione utopica o distopica che dir si voglia, perché poi l’utopia sfocerà in distopia, si racconta di uno stato totalitario in cui il principio del piacere è contrapposto alla libertà (si può essere felici a patto di non essere liberi).

Lei parla di politica empatica a proposito dei nativi di Avatar di James Cameron (Usa, Gran Bretagna, 2009) e in generale di immaginario come nuovo spazio del conflitto (soprattutto con riferimento ai lavori di William Gibson). Quanto è attuale tutto ciò alla luce della presente situazione politica italiana?

Nei testi precedenti a Immagini del conflitto trattavo di sfera pubblica e partecipazione politica – concetti ridefiniti nello scenario delle nuove tecnologie digitali – e facevo riferimento anche alla politica italiana. Infatti nel mio Partecipiamo. Tra autorappresentazione dei media e rappresentazione dei partiti (2015), la terza parte è dedicata proprio al laboratorio italiano.

Qual è la parola chiave che ci permette di mettere in connessione quegli studi più politologici e questi ultimi che sono più sull’immaginario tecno-scientifico? La parola è “emozione”. Le nuove tecnologie, in un processo già avviato dalla TV che infatti per McLuhan è un medium freddo, cioè profondamente coinvolgente e partecipazionale (e questa partecipazione è aumentata con questi nuovi dispositivi digitali), hanno ridefinito la sfera pubblica, facendo sì che il coinvolgimento emotivo diventasse centrale. In un libro di un politologo francese, Dominique Moïsi (Geopolitica delle emozioni), si divide il mondo in tre grandi blocchi, dove ognuno vive scosso o movimentato da una grande emozione, la paura, la rabbia o la speranza. Ecco, anche la sfera pubblica attuale italiana è fortemente emotiva.

Oggi è facile sollecitare le corde emotive degli italiani indicando la paura degli immigrati, oppure per esempio la rabbia per le scarse opportunità di lavoro. Tutti i leader attuali, perché quanto detto vale per Salvini e per Di Maio/Grillo, ma anche per Renzi nella prima fase della sua ascesa, giocano sul registro emotivo. Naturalmente le emozioni sono diverse: ci sono leader che suscitano emozioni negative come rabbia e paura, e altri che ne sanno suscitare di positive come la speranza. Per esempio uno degli slogan di Obama era Hope, “speranza”, e a anche l’altro slogan, I can, “io posso”, è un richiamo alla speranza.

Attualmente una politica che voglia parlare ai cittadini non può fare a meno di essere consapevole di questa dimensione emotiva creata dai nuovi media.

In film come Avatar ho intravisto, ovviamente attraverso le immagini della fantascienza, due modelli diversi di sfera pubblica in azione. Schematizzando: un modello della sfera pubblica basato sulla razionalità (sulla forza delle argomentazioni) e uno fondato sulla emotività (sul coinvolgimento empatico). I due modelli non sono negativi o positivi di per sé, ciò che è positivo o negativo, ciò che aiuta la politica e i cittadini è comprendere il funzionamento dei media e della sfera pubblica. Se non si capisce come funzionano questi due elementi si farà il gioco di chi, comprendendoli, sollecita solo determinate emozioni.

MARIA GRAZIA FALÀ

 

 

 

 

Donatella Capaldi: “Museo elettronico, interazione sinestetica”

“Museo elettronico, interazione sinestetica”

Tradotto e commentato per Meltemi un seminario tenuto da Harley Parker e Marshall McLuhan

Donatella Capaldi

Un anno, il 1909, in cui deflagra l’insofferenza per il museo come istituzione (“museo – cimitero”, “museo mausoleo”), e che vedrà nuovi percorsi nel primo dopoguerra con la Germania di Weimar. Una figura pionieristica, quella di Alexander Dorner, che a cavallo del XX secolo ha indagato su quale “effetto” doveva suscitare l’allestimento museale e su quali modificazioni percettive doveva indurre nel visitatore. Avanguardie, negli anni Sessanta (si veda in primo luogo Andy Warhol), che hanno agito sulla formazione umanistica ed estetica di McLuhan al tempo del suo Understanding Media e delle sue riflessioni sull’istituzione museale. Una concezione del museo, quella di McLuhan e Parker, come luogo di apprendimento della diversità, di superamento della visione lineare gutemberghiana basata sulla vista. Un luogo, il museo, quale concepito da Parker e McLuhan, con al centro il coinvolgimento del pubblico, a partire dal quale creare un percorso di apprendimento fino all’eliminazione dell’organizzazione cronologica dello storyline, tipicamente gutemberghiana. Infine, uno spaesamento, nei giovani, tra la percezione del “vecchio” museo e del “nuovo” museo, dove sono coinvolti tutti i sensi. E, anche nel sistema educativo, stesso spaesamento negli studenti dovuto alla sinestesia che i nuovi media sollecitavano (tra tutti, la TV) e il modo di insegnare ancora basato sulla linearità della stampa.

Queste, in sintesi, le linee portanti descritte da Donatella Capaldi, assegnista di ricerca in Comunicazione dei beni culturali alla Sapienza di Roma, nel commentare la sua traduzione italiana di un seminario tenuto nel 1967 da Marshall McLuhan e Harley Parker al Museum of the City of New York, edita di recente da Meltemi (Il museo elettronico. Un seminario con Marshall McLuhan).

Il museo inteso come esposizione di oggetti disposti secondo un ordinamento tassonomico e temporale nasce intorno agli anni Trenta dell’Ottocento. Quando comincia a frantumarsi questa visione?

Sulla validità delle tassonomie e delle esibizioni museali organizzate in lunghe gallerie e con le teche ricolme di reperti iniziò un fitto dibattito sul finire del XIX secolo. Veniva messa in questione l’architettura, che andrà sempre più differenziandosi dalla visione originaria ottocentesca (capostipite Schinkel nel 1830): corridoi principali e secondari in cui piazzare capolavori e autori “minori”, per celebrare anche spazialmente l’istituzione statale, i traguardi culturali raggiunti dalla Nazione. Una struttura architettonica che all’inizio coincideva con l’idea romantica della unificazione del popolo in una cultura nazionale, ma con il tempo era divenuta una gabbia, una forma di coercizione della produzione artistica, asservita alla autocelebrazione del potere di uno stato e delle sue istituzioni. Occorreva dunque cercare di rendere l’esperienza più inclusiva per il visitatore, favorirne la partecipazione: Wilhelm Bode a Berlino progettava per es. un nuovo tipo di allestimento che, ricostruendo il contesto storico e architettonico in cui sistemare e mettere in relazione opere e arredi, voleva favorire la comprensione del museo da parte del pubblico, secondo una visione certamente “storicista”, condivisa per es. qualche tempo dopo, nel 1909, da Louis Réau, responsabile delle collezioni di Francia. Il 1909 è in effetti un anno cruciale, l’anno in cui deflagra l’insofferenza per il museo come istituzione: ”Musei: assurdi macelli di pittori e scultori che vanno trucidandosi ferocemente a colpi di colori e di linee, lungo le pareti contese!” tuonava l’invettiva di Marinetti. E sarà da allora tutto un fiorire di epiteti: dal “museo – cimitero” dei Futuristi al “museo mausoleo” del viennese Tietze (1925), espressione ripresa poi da Adorno, o dalle stracitate mummie museali di Valéry agli spazi immobili e autoriferiti nel Kunsthistorisches Museum di Vienna in Antichi Maestri di Thomas Bernhard. E di contro – musei iperbolici inventati dagli artisti, come la raccolta in teche di scorie metropolitane del Mouse Museum di Claes Oldenburg o il parossismo classificatorio del Museo delle Aquile di Marcel Broodthaers a Bruxelles (1968).  Ma tornando al primo Novecento, già quella prima contestazione della forma-museo ha agito indubbiamente e parallelamente da pungolo per sperimentare soluzioni innovative, che superassero il senso di esclusività dell’esposizione come vetrina di stato e di élite, preclusa ai meno acculturati.  E nel primo dopoguerra, soprattutto la Germania di Weimar ha indicato nuovi percorsi.

Si può dire che Dorner, attivo dagli anni Venti del Novecento, sia stato antesignano nel contrapporsi alla concezione precedente?

Dorner è stato una figura-  chiave per vari motivi: aver indagato su quale “effetto” doveva suscitare l’allestimento, quali modificazioni percettive doveva indurre nel visitatore per meglio introdurlo nell’ambiente suggerito dall’opera. L’idea era che l’ambiente espositivo fosse una forma plastica, determinata dalle sollecitazioni e dalle provocazioni delle opere. Per esempio, in una sua famosa esposizione l’itinerario di visita veniva tracciato e costruito partendo dai paradigmi fondativi dell’opera di Malevič. Ecco che lo spazio viene distinto da colori diversi, separato da porte e tendaggi, mosso da inserti di legno applicati alle pareti che danno il movimento dal liscio allo scabro. Sono le opere a creare l’ambiente in cui far muovere il visitatore, e non il museo come istituzione normativa; sono i loro elementi stilistici a essere accentuati nell’allestimento e a creare un percorso sensoriale, una scia di punti che instradano il pubblico e lo fanno muovere nella composizione e nelle campiture acromatiche come nelle macchie di colore che costituivano i lavori dei suprematisti russi. Sottotraccia Dorner ha indicato una strategia, quella della esibizione della discontinuità, della diversità, alla quale il museo dovrebbe allenare il visitatore.  Una soluzione che deve superare quella tradizionale della accumulazione degli artefatti.

Che ruolo hanno avuto le avanguardie degli anni Sessanta nella visione che poi sarebbe stata esposta da McLuhan e Parker nel seminario tenuto al Museum of the City of New York il 9 – 10 ottobre del 1967?

Direi che il ruolo delle arti agiva su più piani, innanzitutto trovando un fertile terreno nella formazione umanistica ed estetica di McLuhan, anglista e critico letterario, soprattutto di poesia, e appassionato dell’artista – poeta vorticista Wyndham Lewis, ma anche assiduo frequentatore degli ambienti dell’Avanguardia artistica californiana e newyorkese negli anni ’60. In particolare sono rilevanti i rapporti con Andy Wahrol e la sua Factory, o con la performance art di Kaprow, al tempo del successo di Understanding Media (1964). Dal punto di vista teorico la sua riflessione sul museo nasce grazie alla conversazioni con Harley Parker, artista e suo collaboratore, con il quale rilegge la storia del segno e dello spazio artistico nei secoli, provando a individuare le connessioni con lo sviluppo e l’articolazione dei paradigmi che muovono l’ambiente mediale e la sua rappresentazione (sotto l’evidente influenza di Panofsky). Una disposizione che accende in McLuhan una profonda curiosità e partecipazione, qualche mese prima del seminario di New York, per la Expo mondiale di Montreal, particolarmente attenta all’arte contemporanea. Ma c’è anche un altro livello, forse ancora più interessante: egli si ritrova in forte sintonia con gli artisti perché la sua esplorazione teorica sui media si intreccia con la funzione delle arti, a suo parere essenziale, nell’indagare e sovvertire l’ambiente sensoriale e mediale. Per esempio: già gli Impressionisti, in presenza della progressiva introduzione dei media elettrici, lavoravano su quello che McLuhan definisce il medium “puro”, la luce. La luce elettrica ha rivoluzionato la comunicazione, passando dalla invenzione del telegrafo, continuando con il fonografo, e poi la radio, verso una rivoluzione dell’immagine, dalla stampa al cinema in poi. E ha modellato il nostro sistema percettivo, i nostri parametri mentali. La luce “corrente”, istantanea, induce una vistosa accelerazione nella quotidianità dei rapporti sociali e economici, una eliminazione progressiva delle distanze, una mutata concezione del tempo, come simultaneità e compresenza immediata di elementi eterogenei e frammentari, declinandolo in un eterno presente che tutto ingloba. L’habitat dei media sembra essere autonomo, autoconsistente, difficilmente analizzabile e aggredibile (pensiamo oggi per es. a Google e al problema degli algoritmi), come un sistema neurale che avvolge il pianeta. Ma in quegli anni ’60 gli artisti divengono geniali manipolatori di quella rete. Partono anche loro dal medium puro, la luce, con le instant sculptures di Flavin, tubi fluorescenti che plasmano luoghi virtuali e smaterializzati senza pareti, composti di fasci luminosi; e il mash-up di Fluxus (la fusione, il melting), con Maciunas o Higgins con i suoi Intermedia, che mescolano frammenti di pittura, poesia, grafica, musica e performance; e gli happening di Kaprow, con un corpo – ipostasi che avverte le minime vibrazioni del flusso e lo reinterpreta. Sino alle scorie di schermi televisivi di Nam June Paik e Wolf Vostell. Le arti sono per McLuhan dei radar della percezione, gli artisti sono “esperti in consapevolezza sensoriale”. Essi creano un anti-environment, un controcampo che diviene un “luogo” dove emergono le dinamiche occulte dei media, e dove vengono risvegliate le coscienze, fuoriuscendo dagli automatismi, fermandone il flusso e il bombardamento, rompendo gli stereotipi, e inducendo così alla comprensione dell’intreccio tra media e spazio vivente. Fuori dalla narcosi, dalla stato di torpore e di sogno in cui i media ci spingono, lavorando sui loro modelli, smontandone i meccanismi. Uscendo dal blob, si diventa osservatori e decostruttori dei loro stereotipi. Susan Sontag riconosceva i motivi del fascino teorico esercitato da McLuhan sugli artisti: soprattutto l’aver compreso la New Sensibility, ossia che l’arte contemporanea si basa “sull’analisi e l’estensione delle sensazioni”. E sulla eliminazione delle distinzioni tra alto e basso, tra cultura elitaria e cultura di massa: il Pop come sovversione del consumo, ma anche esplorazione, percorso all’interno dei processi culturali contemporanei. Gli artisti come abitatori degli ambienti costruiti dai media, in cui immergersi per comprenderne e governarne i meccanismi (si pensi a Joseph Beuys con la sua Filz TV del 1970). Più integrato che apocalittico, McLuhan non nascondeva tuttavia il suo persistente disagio, nonostante la scelta di ibridarsi a sua volta con il Pop e con il flusso dei media risalisse al 1951: comprendere l’ambiente per non restare subalterni; compiere, in sostanza, un lavoro simile a quello degli artisti (e utilizzarne le esperienze). Ma un bel problema era trasferire queste teorie e pratiche all’interno di un museo…

Qual era la concezione che McLuhan e Parker avevano del museo, inteso come medium che dovrebbe creare ibridazione, intensificazione delle percezioni degli spettatori, e interazione?

Il problema che entrambi si pongono è che nell’era della riproducibilità tecnica e della cultura di massa l’approccio alle opere dovrebbe passare da una sua fruizione mediale – spettacolare. Ma seguendo una “mission” precisa: il museo come luogo di apprendimento della diversità, del dissimile, come creazione e comprensione del conflitto. Dunque occorre incoraggiare uno sguardo ”straniero” anche su un patrimonio conosciuto. Spingere il visitatore a farsi delle domande, a discutere, compiere delle comparazioni, individuare contraddizioni, come base della interattività, di una scoperta ed esplorazione delle collezioni da parte del pubblico, a partire dalle quali sia poi possibile abbozzare e tracciare dei percorsi di apprendimento. Quindi gli allestimenti “tradizionali” dovevano essere completamente rivisti alla luce dei nuovi alfabeti dei media: al centro il coinvolgimento del pubblico, anche lavorando sulla fisicità dell’artefatto, da lasciar manipolare facendo entrare nel circuito espositivo copie e riproduzioni degli oggetti; fondamentale presentare i modelli percettivi e spazio-temporali espressi da un’epoca, piuttosto che soffermarsi monograficamente sui singoli artisti. Anzi, le opere anche di uno stesso periodo devono essere fatte stridere, creando conflitti per mettere in luce i parametri culturali che le hanno generate, in contraddizione spesso con lo stesso periodo storico in cui sono state realizzate. Fino a un ulteriore passo: la eliminazione della organizzazione cronologica dell’allestimento: lo storyline ci reimmetterebbe in quell’apparato “gutenberghiano” della consequenzialità e della linearità temporale causa-effetto che la simultaneità e la non linearità del tempo dei media di massa hanno messo largamente in crisi. La scelta di lavorare sulle collisioni tra le opere, un’idea che anche oggi suscita polemiche (pensiamo al nuovo allestimento della Galleria Nazionale di Arte Moderna di Roma), si intonava nei rivoluzionari anni ’60 con l’impeto a rompere con gli schemi precostituiti, allargare la platea del museo, renderlo un luogo della “vita”. Come Renato Barilli, rielaborando le idee di McLuhan, avrebbe sperimentato con Opera e Comportamento al Padiglione Italia della Biennale di Venezia nel 1972.

Infine: entravano in area espositiva le tecnologie (allora quelle audiovisive), ma con una forte consapevolezza, che queste non fossero automaticamente garanzia di una attivazione del pubblico. McLuhan e Parker notavano che a un orientamento performativo multimediale del museo corrispondeva spesso un atteggiamento del pubblico ancora (tele)“visivo”, passivo. Spettacolarità senza un vero intervento del visitatore che rimane solo fruitore, non viene coinvolto, non diventa “attivo” neanche in senso transmediale, ossia in una relazione che lo accompagni anche fuori dal museo. Quindi tecnologie sì, ma usate per coinvolgere, per stimolare domande, per aiutare le persone a cercare risposte.

Che ruolo aveva in tutto questo la ri – tribalizzazione creata da nuovi media come radio, cinema e televisione? E perché McLuhan considerava la TV come un medium freddo, che “viene incontro” allo spettatore, e che sollecita il tatto?

Rispondo alla seconda domanda per arrivare poi al problema della ritribalizzazione. Di solito si associano i mass media alla superfetazione di immagini, e si ritiene un tratto distintivo del nostro tempo il continuo bombardamento di immagini a cui siamo sottoposti nella giornata.  In realtà la definizione è parziale. Si potrebbe parlare di società dell’immagine e dello spettacolo già per il Barocco. Secondo McLuhan con la nascita e l’affermazione della prospettiva e la coeva invenzione e diffusione della stampa si accentua il dominio del senso della “vista” nel nostro apparato percettivo. La linearità e il distanziamento, con il movimento di lettura sinistra – destra ha plasmato il nostro apparato percettivo in senso astratto e concettuale e intensificato la catena logico -consequenziale che plasma il discorso; parallelamente, la divisione dello spazio prospettico rinascimentale mette fine al senso del “continuo” per rendere il soggetto osservatore della scena rappresentata, secondo una percezione che raccoglie i punti di fuga e costruisce “visivamente” l’ambiente. Ma quello che succede con i media di massa, soprattutto la tv, è che sono attivati anche gli altri sensi che con la vista collaborano alla costruzione dell’immagine. Ecco perché McLuhan definisce come audiotattile l’esperienza televisiva, cosa che può parere eccentrica. Oltre la vista, viene particolarmente messo in gioco l’udito, e soprattutto il tatto, poiché sono state eliminate le distanze con l’oggetto rappresentato, che si pone praticamente accanto a noi, quasi seduto nel nostro salotto: l’ambiente televisivo in maniera dinamica colpisce simultaneamente lo spettatore, coinvolgendolo e avvolgendolo in un flusso di sollecitazioni sensoriali. Per capire meglio questo assunto pensiamo alla famosa scena di Videodrome di David Cronenberg, un film del 1983 ispirato alle teorie di McLuhan, https://www.youtube.com/watch?v=P0XwWXgISXI: lo schermo del televisore diviene una ”pelle” che si dispiega sulla voce e il respiro dell’immagine femminile trasmessa in video. L’idea della tv come medium “freddo”, a bassa risoluzione, non è basata solo sulla scarsa definizione degli apparati degli anni ’60: il punto è che la televisione richiede la partecipazione e il completamento dello spettatore, lo coinvolge, “massaggia” il suo apparato percettivo senza distanziarlo. La tv rende esperienza quotidiana e continua quella che al cinema è una esperienza “eccezionale”, e d’altronde il cinema è “caldo” perché sovrasta lo spettatore: la storia a cui assistiamo è conchiusa, lo spettatore non è chiamato a completarla.

Con la tv, secondo McLuhan, si era entrati in piena fase di ri -tribalizzazione, di obsolescenza dei fondamenti razionalistici della cultura. Seguiranno, di lì a poco, le ondate delle teorie sulla post-modernità, sulla fine delle grandi narrazioni, e poi il movimento di ritorno delle derive identitarie, la rivendicazione di essere nel flusso un gruppo coeso, che resiste nelle proprie tradizioni e convinzioni, come argine. Pensiamo al sovranismo politico e al tentativo di “governare” o “fermare” i flussi globali cristallizzandoli nel singolo stato – fortilizio e autoriferito. O ben prima allo “stile di consumo” che agisce da collante e rinforza la sensazione di essere gruppo, tribù appunto. I linguaggi della rete accentuano la natura fluida della comunicazione televisiva, senza un prima e un dopo, secondo modalità di lettura senza più la scansione regolare della pagina, e rendendo obsolescenti i rapporti di causa-effetto. Nel flusso va perso il sistema di pensiero astratto, consequenziale e “visivo” gutenberghiano. Il surriscaldamento del nostro intero sensorio arriva a rovesciarsi in saturazione comunicativa, secondo continue e violente oscillazioni. E induce a “tribalizzarsi”, non tanto su spinte ideologiche, ma soprattutto trovando stabilità in forme comunitarie che passano dalla condivisione di stili di vita e soprattutto di consumo, spesso configurati come fortezze auto – riferite. Per questo McLuhan e Parker arrivano a pensare nel 1967 che la funzione centrale del museo possa consistere al contrario nell’allenarci alla diversità. Un ambiente per il cortocircuito mentale, una scuola dello “spaesamento”; qualcosa di analogo a quell’esercizio “xenologico” che in tempi a noi più vicini avrebbe teorizzato Sloterdijk.

Quanto contano i giovani nella definizione di nuovo museo quale preconizzata da Parker e McLuhan?

Conta la maniera in cui i media hanno plasmato il loro sistema percettivo, l’ambiente mediale in cui i giovani si sono formati: McLuhan negli anni ‘60 si trovava di fronte a nativi televisivi. Una generazione che rispetto alla precedente, ancora legata a una cultura gutenberghiana, anche se avvertita come problematica, era in grado di “sentire” e di pensare in modo non astratto, non consequenziale, ma a “mosaico”. Una sensibilità con radici nell’800, nel giornalismo che mescola insieme notizie, annunci  e fonti eterogenee, amplificata con i media elettrici e ipostatizzata dalla tv, dove la narrazione viene continuamente interrotta, lo storyline è sacrificato al frammento, il pubblico è continuamente sollecitato. Questo è un punto fondamentale per McLuhan, che anticipa quanto accadrà nel mondo delle reti, e ai nostri nativi digitali (del 1965 è la teoria dell’ipertesto di Ted Nelson, primo nucleo teorico sulla cultura connettiva). Si spiega così, secondo McLuhan, la frattura generazionale di quegli anni ’60, tra giovani abituati alla sinestesia, alla discontinuità, al frammento, alla polisensorialità, alla multimedialità e alla riscoperta del corpo (simbolicamente i movimenti hippies, per es.), e l’ambiente scolastico, ancorato a una organizzazione astratta e concettuale dei saperi, alla linearità e categorizzazione, al primato della vista sugli altri sensi. La cultura rischia di guardare i processi in corso “dallo specchietto retrovisore”, perché non si è riusciti a trarre vantaggio nella formazione dai nuovi media elettronici. Come è evidente, anche in questo senso sono diagnosi profetiche… Mondo esterno e mondo dell’educazione formale non si ibridano, come – e il problema si porrà a lungo – non si ibridano mondo esterno e mondo dei musei. Non a caso in quel periodo McLuhan si dedicherà all’aspetto pedagogico dei media scrivendo La città come aula, dove propone l’ambiente spaziale e mediale come luogo fondamentale dell’apprendimento (1968). Lo stesso ragionamento lo applica nel seminario del 1967 al museo: superando una sterile concettualizzazione tassonomica, e una frequente carenza di contestualizzazione degli oggetti, il museo deve essere costruito come un ambiente percettivo che ricrei il “sentire” di una cultura o di un periodo, immergendovi il visitatore perché possa ricavarne i modelli, i paradigmi fondativi, ed eccitando una partecipazione coinvolgente ed esperienziale. In questo contesto la “collisione” delle opere, per es. un Guido Reni opposto a un El Greco, richiede allo spettatore di riconoscere un modello, portandolo a comprendere che ne esiste contemporaneamente uno opposto. Il valore dell’esperienza è dato non tanto dalle informazioni, ma dai modelli e dalle differenze che possiamo ricavarne. La diversità come destinazione del museo: una terapia d’urto, che spiazzi continuamente il soggetto e incrini i suoi stereotipi, anche per un pubblico privo di riferimenti storico -artistici o culturali, ma prevalentemente allenato alla polisensorialità e alla simultaneità. Mostrare le lacerazioni e i conflitti nascosti dalla narcosi indotta dalla saturazione sensoriale, dalla maschera della assuefazione. Rompere i cliché. Recuperare la dimensione performativa…

MARIA GRAZIA FALÀ

Il Museo elettronico

 

 

 

Giuseppe Riva: “Fake news, proposto un patentino per navigare sui social”

“Fake news, proposto un patentino per navigare sui social”

Presentato per “Il Mulino” un testo sulle “bufale” moderne, sospese tra online e offline

Giuseppe Riva

Fake news: notizia falsa costruita in modo comunicativamente efficace per farla diventare un “fatto sociale”. Sua diffusione: attraverso i social media e, attraverso un processo di agenda setting, passaggio nei media mainstream quando raggiunge una massa critica tale da non passare più inosservata. Suo profilo: visivamente accattivante e dotata, di solito, di un breve commento testuale. Difficile potersene difendere, dato che Facebook e motivi politici ed economici non fanno molto a tal fine. Tra le proposte in tal senso, l’intervento istituzionale, la creazione e l’azione dei “fact – checker”, l’azione del singolo utente, per esempio attraverso la creazione di un patentino, soprattutto per i più giovani, che verifichi le capacità di base di conoscenza dei rischi dei social media. Queste in sintesi le linee portanti del recente Fake news, di Giuseppe Riva, docente di Psicologia della comunicazione alla Cattolica di Milano, edito recentemente da Il Mulino.

Cos’è una “moderna” fake news?

Una fake news, che in italiano può essere tradotto come “bufala” è una notizia falsa costruita in modo comunicativamente efficace per trasformarla in un “fatto sociale”, cioè in una notizia intuitivamente che può sembrare vera per il gruppo sociale di riferimento.

Come si diffonde?

Le fake news nascono per un medium specifico: i social network. Da una parte sono create in forma multimediale e contenuto per facilitarne la diffusione e la fruizione sui social. Per questo sono prevalentemente visive, spesso immagini con testo sovrapposto associate ad un breve commento testuale, in modo da non richiedere un elevato livello di attenzione da parte dell’utente e permetterne la visione anche da uno smartphone. Dall’altra sono automatizzate, cioè la loro diffusione è supportata da centinaia di «bot» – programmi informatici associati ad un profilo social – in grado di farle apparire tra le notizie più popolari.

Analogamente funzionano i “chatbot”, che consistono in un sistema di intelligenza artificiale che interagisce sui social simulando il comportamento di una persona.

Quali effetti può avere?

Uno dei problemi che ha avuto Facebook nel momento di crescita era quello di spingere le persone a rimanere il più possibile sui social network. Per farlo Facebook ha assunto molti psicologi che si sono accorti che il nostro sistema cognitivo si basa su una serie di trasmettitori, i più famosi dei quali sono la serotonina e la dopamina, che influenzano in modo determinante i nostri comportamenti. In particolare la dopamina è un neurotrasmettitore che influenza l’intensità delle emozioni che noi sperimentiamo. Facebook si è posto il problema di come produrre il più possibile delle scariche di dopamina durante l’interazione con i social network, e tramite i suoi psicologi si è reso conto che un sistema molto efficace era quello del premio sociale, quindi l’idea di ricevere un “like”, un’amicizia, ecc.. Questa quantità di dopamina progressivamente viene assimilata dal corpo e, per provare lo stesso effetto emotivo positivo che essa ci ha prodotto, dobbiamo ottenere un numero maggiore di “like” e di ricompense sociali. Ciò spinge il soggetto a stare sempre più tempo all’interno dei social network e in questo modo Facebook ha raggiunto il suo scopo.

Si può parlare, in questo periodo e riguardo ai social, di un ritorno ai powerful media come preconizzato negli anni Venti – Trenta e dalla Scuola di Francoforte?

Indubbiamente i social media sono dei powerful media – più potenti perfino della televisione – perché hanno generato l’Interrealtà – un nuovo spazio sociale ibrido che fonde le reti online e quelle offline. Questo rende i media sociali delle vere e proprie “tecnologie di comunità” in grado di contrapporsi e/o sostituire le comunità offline attraverso la creazione di «fatti sociali» alternativi in grado di contrapporsi a quelli delle istituzioni.

Condivido quindi quello che sosteneva la Scuola di Francoforte, e questo per vari motivi: il primo perché sono diventati parte integrante della nostra vita quotidiana (i dati ci dicono che noi passiamo circa tre ore al giorno davanti ai social media). A parte la televisione, essi sono il secondo grande medium in termini di fruizione, ma come impatto sono molto più significativi. Mentre prima quello che vedevo in TV poteva cambiare i miei atteggiamenti e le mie opinioni, ma non me stesso se non in termini mediati, oggi invece quello che faccio con i social network (per esempio, postare sul mio profilo Facebook una foto sbagliata) ha un impatto diretto sulla mia vita quotidiana (nell’esempio, critiche da parte dei miei amici, sia quelli online che offline).

Come si diffonde l’effetto delle fake news nei media mainstream?

Le fake news si impongono come nuovi fatti sociali nelle comunità di riferimento – i vaccini fanno male – che le condividono con le altre comunità affini. Progressivamente raggiungono una massa critica che attira l’interesse dei media mainstream.

Dalla rete infatti il meccanismo passa offline: coloro che votano Lega e Cinque Stelle sono tanti e non tutti sono su Facebook. È quindi evidente che c’è un meccanismo molto efficace di travaso dal mondo online a quello offline. Ed è proprio questo tipo di meccanismo che è studiato dalla scienza delle reti, questa nuova area scientifica che analizza i network e si è resa conto che in base alla semplice amicizia tra vari utenti della rete c’è una profonda trasmissione di informazioni che va a toccare atteggiamenti, opinioni e, addirittura, caratteristiche fisiche. Come ha dimostrato qualche anno fa Nicholas A. Christakis, che è uno degli scienziati più famosi del settore, persino l’obesità, cioè una cosa che è una caratteristica fisica e non un’opinione, si trasmette in base alla conoscenza (se conosco un obeso ho il 57% di probabilità in più di diventarlo). Questo perché, conoscendo un obeso, l’obesità mi preoccupa di meno, riduco i meccanismi di controllo sull’alimentazione, e quindi ciò progressivamente spinge anche me a diventare obeso. La stessa cosa vale per le fake news: conoscendo una persona che porta all’interno di gruppi offline il contenuto di una fake news come la pericolosità dei vaccini, progressivamente incomincio a ritenere questa opinione come plausibile e mi opporrò sempre di meno alla sua trasmissione. Questo è un meccanismo molto potente e che i social network hanno facilitato moltissimo. Una volta, ovviamente, il numero di persone che potevamo incontrare ogni giorno era limitato: oggi, con i social network, possiamo trasmettere a migliaia di persone lo stesso concetto, un po’ come la trasmissione dei virus.

Il meccanismo è quello classico dell’agenda setting: le fake news non arrivano inizialmente al mainstream, ma vanno a toccare esclusivamente dei gruppi sociali ristretti. Nel momento in cui esse escono dalla nicchia degli addetti ai lavori e arrivano a un gruppo più ampio, i media mainstream se ne accorgono e le rilanciano: ciò finisce per produrre un effetto a catena che rende la fake news sempre più potente ed efficace. Ciò che ci dicono gli studi è che purtroppo, per contrastarle, non bastano le smentite.

Cosa spinge, poniamo, un anziano che non usa i social e che magari votava PD a passare al Movimento Cinque Stelle e poi a Salvini? È anche questo, secondo lei, effetto delle fake news?

L’elemento chiave è la comunità di pratica, cioè un gruppo di persone legate da un obiettivo e da un’idea molto precisa, per esempio dall’opinione che gli immigrati creano problemi. Questo è un concetto semplice, però assai efficace: chi di noi, nella propria esperienza quotidiana, non ha trovato una situazione di disagio legata agli immigrati? Davanti a un concetto lineare, “Gli immigrati sono da rimandare a casa”, succede che la narrativa presentata all’interno delle fake news è per esempio “Gli intellettuali di sinistra dicono che gli immigrati sono tanto bravi e devono rimanere tra noi”. La maggior parte delle fake news emesse all’interno dei siti pro Salvini presentava Saviano che diceva di essere favorevole agli immigrati, che gli italiani erano dei fannulloni e che quindi creavano più problemi degli immigrati stessi. Questa fake news ha avuto un grande successo all’interno dei gruppi pro Salvini, e progressivamente si è diffusa.

Come ci si può difendere dalle fake news soprattutto per evitare derive populiste da queste, appunto, supportate?

Difendersi dalle fake news è difficile e richiede un intervento integrato a tre livelli. Il primo è quello istituzionale, che deve regolare le modalità di accesso e di utilizzo dei nostri dati personali e punire i creatori di fake news. Il secondo livello di intervento è quello della rete, che attraverso delle figure dedicate – i “fact-checker” – può aiutare sia i gestori dei social media che i loro utenti a riconoscere le fake news. L’ultimo è quello del singolo utente, che può difendersi in tre modi. Il primo è riducendo la dipendenza comportamentale: ogni utente di smartphone lo controlla in media centocinquanta volte al giorno, una volta ogni 6 minuti. Il secondo, dedicando una maggiore attenzione a quanto troviamo sui social. Infine, attraverso un adeguato livello di formazione che permetta di identificare quei segnali che caratterizzano le fake news. In questo processo i più a rischio sono i giovani. Per questo ho suggerito, come per il motorino, una creazione di un patentino che verifichi le capacità di base di conoscenza dei rischi dei social media. In attesa di arrivarci sul mio sito www.capirelefakenews.eu ho raccolto una serie di materiali per genitori e insegnanti che possono aiutare i nostri figli a capire meglio i rischi delle fake news.

Come si è mossa Facebook in merito al controllo delle fake news?

Finora ha fatto un po’ quello che ha voluto, e ha cercato in tutti i modi di resistere ai meccanismi di controllo. Essa anzi non si è mossa né a proposito delle fake news, né sui meccanismi che usa per aumentare la permanenza dei soggetti online (il rilascio di dopamina). A proposito delle prime, ha “chiuso” gli utenti con profili simili dentro dei “silos sociali” in cui i soggetti non vedono mai un pensiero divergente. Siccome quest’ultimo non porta click, allora Facebook ha cercato di chiudere gli utenti dentro gruppi con la stessa visione, in modo da non mettere mai in discussione le proprie convinzioni e da non inserire opinioni contrarie a quelle delle notizie fake così da mettere in dubbio la loro veridicità, cosa che avrebbe diminuito “like” e condivisioni.

Ma le notizie fake sono anche un business?

A parte la dimensione politica, creare fake news fa guadagnare molti soldi, perché attira click e quindi introiti pubblicitari (io sono pagato dai social network in base ai click che riesco a generare, e in base ad essi una fake news ben fatta può portare al suo creatore mille – duemila euro in qualche settimana). Per esempio in Macedonia nel corso delle presidenziali americane del 2016 che hanno visto contrapposti la Clinton e Trump, si sono accorti che un sito che conteneva fake news poteva guadagnare fino a diecimila – ventimila euro, e così mezzo paese si è messo a crearle. In quel caso non era la spinta politica (danneggiare la Clinton), ma un motivo economico: il fatturato generato da questo processo è stato infatti di qualche milione di dollari. Siccome un macedone in media guadagna seicento – settecento euro al mese, un guadagno così alto ha spinto molti a quest’attività. E siccome i più sfrenati diffusori di fake news erano sostenitori di Trump, i macedoni le hanno create contro la Clinton. Proprio grazie ad esse questa ha perso le presidenziali: gli studi del Senato USA dicono infatti chiaramente che l’elemento che ha fatto spostare l’ago della bilancia a pochi giorni dall’elezione è stata la grande quantità di fake news create e diffuse ad arte negli stati americani in cui il divario tra i due candidati era più ridotto.

MARIA GRAZIA FALÀ

Giuseppe Riva

Capire le fake news 

 

 

Andrea Rabbito: “Lo spirito del tempo, ancora vivo tra immaginario e reale”

“Lo spirito del tempo, ancora vivo tra immaginario e reale”

Per Meltemi la riedizione del libro di Edgar Morin a cura di Andrea Rabbito

La lettura antropologica dei media, i concetti di uomo medio o uomo arcaico, di telepartecipazione mentale, di neoarcaismo, di finestre sul reale, nonché l’attenzione sulla cultura del tempo libero e sullo scambio tra immaginazione e reale. Un equilibrio tra nuovo e dato che veniva, nel ’62, preconizzato come caratteristico della cultura di massa, mentre attualmente, con l’ingresso del digitale, la situazione è parzialmente cambiata. Poi, il linguaggio audiovisivo definito come “involucro polifonico”, che proietta lo spettatore entro una dimensione in cui le linee di demarcazione tra reale e immaginario diventano labili. Inoltre, la microtargetizzazione che sembrerebbe datare l’opera perché parlava di uomo medio, mentre questo concetto va visto nell’ottica di un “anthropos universale” insito nella natura umana, che permette di far presente come viva un rapporto arcaico tra uomo e i prodotti di massa. Infine, Maggio 68. La breccia, testo che dialoga con quello del ’62, in cui sono già presenti molti dei fermenti poi espressi in questo ultimo libro.

Queste, in sintesi, le interpretazioni di Andrea Rabbito, docente di Cinema, fotografia e televisione presso l’Università degli studi di Enna “Kore”, a proposito dello Spirito del tempo di Edgar Morin, testo ritradotto dal francese e da lui curato per Meltemi.

Lo spirito del tempo esce nel 1962, a ridosso di molte altre opere seminali (tra tutte, Miti d’oggi di Roland Barthes, del 1957, e La galassia Gutenberg, sempre del 1962, e Gli strumenti del comunicare (1964), entrambe di Marshall McLuhan). Quanto ancora rimane vivo?

Quello che rimane vivo ne Lo spirito de tempo è molto; è stato, ed è tuttora, un libro imprescindibile per varie aree scientifiche, ed è per questo che con l’editore abbiamo ritenuto importante pubblicare nuovamente lo studio di Morin, proponendolo in una nuova traduzione, realizzata da Claudio Vinti (professore ordinario di Lingua e traduzione francese – Università di Perugia) e Giada Boschi, aggiungendo diverse parti inedite finora mai tradotte, e allegando un saggio introduttivo di Ruggero Eugeni e un mio saggio alla fine del volume. La nuova traduzione permette di gustare con maggiore fedeltà il complesso linguaggio di Morin offrendo del suo pensiero una lettura più completa, mentre i due saggi sono funzionali a far emergere con chiarezza, al lettore contemporaneo, il contributo che ha dato lo studioso francese alla ricerca. Un contributo che, abbiamo voluto specificare, ha dato molto agli studi sulla fotografia, sul cinema, sulla televisione, riuscendo a intercettare in anticipo anche alcuni specifici fenomeni che i new media realizzano, e precorrendo, inoltre, approcci scientifici attuali quali quelli dei visual culture studies (secondo quanto è stato già messo in luce da Macé nel 2001). Proprio per quest’ultimo motivo abbiamo insistito affinché il volume fosse pubblicato nella collana “Estetica e culture visuali” della Meltemi, e non in quella più, apparentemente, consona di sociologia. È lo stesso Morin ha dichiarare che il suo volume è stato posto “nell’«inferno» della sociologia”, mentre è stato molto apprezzato e ha avuto il suo sviluppo all’interno degli studi più propriamente dedicati all’immagine. In particolar modo, il suo metodo e il contenuto sono stati considerati, nell’ambito degli studi sul visuale, di grande innovazione e precursori di modalità di ricerca e di analisi di tematiche più attuali. Più precisamente, il suo metodo, proposto in quella che possiamo considerare una tetralogia sulle nuove immagini (Il cinema o l’uomo immaginario, Lo spirito del tempo, I divi, Lo spirito del tempo 2) diventerà non solo base per lo sviluppo del suo Metodo su cui si focalizzerà nei sui 6 tomi a partire da 1977 (Morin stesso, nella sua prefazione del 2006 a Lo spirito del tempo, scrive che già per la stesura di questo volume praticava ciò che in seguito chiamerà la “conoscenza complessa”), ma sarà anche punto di riferimento per un approccio che intende ibridare vari campi scientifici (antropologia, sociologia, mediologia, filosofia, estetica, psicologia, film studies, studi letterari, storia dell’arte, scienze cognitive) al fine di entrare più in profondità nella questione complessa delle immagini e sugli effetti che queste determinano nella nostra vita. Una lezione, quella di uscire fuori dai territori di ricerca più consolidati, che se da un lato non è sempre stata vista positivamente dalla comunità scientifica, facendo storcere il naso ad alcuni studiosi, dall’altro lato ha permesso a Morin di tracciare con largo anticipo inedite tendenze e individuare nuovi argomenti di ricerca, secondo quanto espresso, ad esempio, nel panorama italiano, da Eco, Casetti e Ortoleva.

Tra gli aspetti e le questioni più rilevanti, presenti ne Lo spirito del tempo, e tuttora vivi e pulsanti nella nostra dimensione post-mediale (attentamente analizzata da Eugeni), possiamo individuare nello specifico la sua lettura antropologica dei media e i concetti di uomo medio o uomo fanciullo o, ancora meglio, uomo arcaico, di telepartecipazione mentale (che anticipa quella “quasi-interazione mediata” studiata da Thompson), di neo-arcaismo (che viene, ad esempio, riproposta, da Debray e dagli studi sull’archeologia dei media), di frattura, di finestre sul reale (che sembrano prevedere quel fenomeno di rilocazione e ipertopia, teorizzati da Casetti, e di rimediazione, espresso da Bolter e Grusin), e ovviamente la sua importante attenzione posta sulla cultura del tempo libero e sullo scambio tra immaginario e reale.

Nella produzione della cultura di massa c’è un equilibrio precario tra novità e conformismo, cosa che spinge i suoi creatori a una forte insoddisfazione. Quanto espresso da Morin negli anni Sessanta è valido ancora oggi?

Sì e no. Ovvero: quanto espresso da Morin, riguardo a questo rapporto esistente tra novità e conformismo, non può che risultare tuttora presente all’interno della dimensione della grande industria culturale attuale, la quale accetta la scommessa del nuovo a patto di non creare una frattura profonda nel suo impianto classico. La standardizzazione garantisce una sicurezza economica, ma nello tempo necessita di muoversi in maniera graduale e non traumatica verso l’offerta di qualcosa originale per non perdere l’attenzione del pubblico, continuando a stimolarlo con la novità. È percorso da sapiente equilibrista che deve saper dosare, bilanciare, con acutezza, l’esistente con il nuovo, in quanto, come osserva Morin, “il già noto rischia di stancare e il nuovo di non piacere”. E a riguardo Morin si sofferma su casi noti, come quelli di Welles e Faulkner. Ma nello stesso tempo, sempre Morin, focalizza la sua attenzione verso casi particolari come quelli offerti dalla produzione artistica della Nouvelle Vague, che segnano una attenta rottura con questo sistema dell’industria culturale, in quanto, sempre citando quanto espresso ne Lo spirito del tempo, hanno dato vita ad “un regresso della standardizzazione”, allo stesso modo di opere come quelle di Ėjzenštejn, (Morin cita Aleksandr Nevskij), opere che riescono a giocare con le faglie del grande sistema industriale e statale. Sono opere che si offrono, secondo quanto scrive Morin, come “antidoti”, che intendono problematizzare (riprendendo quanto espresso da Morin in un convegno all’Università di Torino del 2011, organizzato da Simonigh, un concetto che ho analizzato in un mio volume, Il cinema è sogno) la questione “cinema” e la sua tendenza alla “semplificazione” e “standardizzazione”.

È vero però, dall’altro lato, che l’ingresso del digitale e del web 2.0, che determinano un radicale abbassamento dei costi di realizzazione e un’ampia vetrina tra il pubblico di internet, hanno permesso qualcosa che Morin nel 1962 non poteva prevedere: ovvero un affrancamento dalle rigide regole del sistema produttivo, che ha permesso a molti autori di poter sperimentare con molta più facilità e a poter raggiugere lo stesso una propria visibilità ottenendo un rapporto con un pubblico selezionato.

Internet e il digitale possono così essere considerati strumenti funzionali all’antidoto e alla problematizzazione di cui tratta Morin. Ma è anche vero che il fenomeno di standardizzazione persiste, purtroppo, in moltissimi prodotti presenti nella rete, come è stato ben evidenziato da Carr, mostrando come la participatory culture, analizzata ad esempio da Jenkins, non sempre si muove verso un miglioramento della qualità della produzione e dei gusti del pubblico.

L’immagine è ciò che Morin ritiene fondamentale nella società di massa. Ce ne potrebbe parlare?

L’immagine per Morin assume un ruolo centrale in tutto il suo volume, in quanto è quella che permette una maggiore partecipazione dello spettatore attraverso una sua più istintiva e immediata identificazione e proiezione con ciò che vede. Ed in particolare Morin si sofferma proprio sul linguaggio audiovisivo, quello che definisce un “involucro polifonico”, che, con maggiore resa rispetto agli altri linguaggi, sommerge e proietta lo spettatore all’interno di una dimensione in cui le linee di demarcazione tra reale e immaginario diventano labili, portandolo in una condizione simil-ipnotica, come afferma nella prefazione del 2006, per giungere a far prevalere quel lato fanciullesco proprio dell’uomo immaginario, quella sua componente più arcaica e magica (quella che, dal Paradigma perduto, Morin scriverà essere il carattere connotante la natura del demens, insita nel homo sapiens). Proprio per questo Morin scrive che con le immagini audiovisive, che ripropongono “l’universo arcaico dei doppi”, si stabilisce, con più forza rispetto agli altri linguaggi, un “rapporto estetico”, che va inteso come un rapporto che richiama gli stessi processi psicologici insiti nella magia e nella religione, e che permette di far percepire l’immaginario come “più reale del reale”. Una riflessione, questa, che permette a Morin di portare avanti e sviluppare maggiormente quanto aveva già proposto nel precedente Il cinema o l’uomo immaginario, evidenziando come il rapporto magico-religioso, che le immagini, in particolare quelle nuove, mettono in atto, sia un fenomeno del tutto inedito, quello cioè del “neoarcaismo”, che, però, nello stesso tempo, ripropone dinamiche ataviche, arcaiche, per l’appunto, già presenti nel confronto tra la rappresentazione e il primo homo sapiens.

Quanto risulta ormai datato in Lo spirito del tempo? Per esempio, la microtargetizzazione attuale va contro l’uomo standard, medio, di cui parlava il sociologo francese…

Anche in questo caso, vanno soppesati gli aspetti di grande lungimiranza e profondità presenti nel testo di Morin, con quelli che inevitabilmente devono scontrarsi con le innovazioni che l’epoca postmediale mette in campo, per giungere alla conclusione che la definizione di “datato” poco si addice a quanto espresso da Morin. Lo abbiamo appena visto riguardo al suo pensiero in merito alla negoziazione tra novità e conformismo proposta dall’industria culturale. Persiste, infatti, una validità profonda in quanto Morin esprime, che permette a molte sue riflessioni di essere fruibili e adattabili anche nell’analisi di fenomeni più contemporanei, sebbene quest’ultimi offrano anche delle situazioni che aggiungono tasselli inediti non contemplati da Morin.

Riguardo l’uomo medio, ad esempio, ha ragione da un lato Lei quando mette in luce l’aspetto della microtargettizzazione, però se si pensa a come lo concettualizza Morin e a come lo descrive, si scopre la profonda attualità di questo concetto. Per Morin infatti, l’uomo medio è, come lui scrive, un “anthropos universale” insito nella natura umana, che permette di far presente come viva un rapporto arcaico tra uomo e i prodotti di massa.

Un rapporto che permette allo spettatore di entrare dentro l’immagine, di viverla e di farla vivere, attraverso le sue emozioni e il suo pensiero, stabilendo una tele-partecipazione con la realtà rappresentata, che per magia diviene presentata e presente ai suoi occhi e al suo corpo, come hanno messo ben in evidenzia attualmente gli studi di neuroscienza, vedi ad esempio nel panorama italiano, quelli di Ruggeri-D’Aloia, di Gallese-Guerra e, più recentemente di Carocci.

Quanto ha contato il maggio francese per una revisione di quanto affermato da Morin nel 1962? E quanto rimane viva la lezione di un altro suo libro, Maggio 68. La breccia, del 1988?

Parto dalla sua ultima domanda. La complessità del pensiero di Morin e la sua caratteristica di innovarsi continuamente e trovare sempre nuove aree di studio da analizzare, impone a chi si avvicina ai suoi volumi di tener sempre conto di tutta la sua produzione (è quello che cerco di fare nell’ultima parte del mio saggio), la quale è composta da studi che dialogano fra loro, che creano una rete, mostrando una continuità, una persistenza, una costanza nell’indagine e nel metodo che si rafforzano e ravvivano ad ogni suo volume. Per questo motivo è giusto, come Lei fa, interrogarsi sui legami tra la sua tetralogia sull’immagine nuova e con, ad esempio, Maggio 68. Penso che il pensiero e l’atteggiamento presenti in quest’ultimo libro, animino anche Lo spirito del tempo, e in generale tutta la sua produzione, proprio perché Morin esula da una questione di cultura alta e cultura bassa, mostra un felice apprezzamento verso le varie forme che caratterizzano la cultura di massa, ma nello stesso tempo, da questa posizione, assume anche un atteggiamento critico verso la società delle immagini e dello spettacolo; si pone, infatti, il fine di trovare delle strategie per contrastare alcuni fenomeni, quali il bovarismo, l’impoverimento delle comunicazioni tra uomini, lo spostamento verso una sempre maggiore partecipazione mentale e voyeuristica con il fattuale, e la “conversione ipnotica” della vita. E sono proprio queste strategie e problematiche ad essere portate avanti, ad esempio, da Debord, e sono proprio queste che hanno animato lo spirito del 68, e che possiamo anche rintracciare nell’ultima produzione di Morin.  Ed è per questo che rispondo alla sua prima domanda dicendo che, non solo, molte delle questioni del maggio francese erano già insite nel pensiero di Morin espresso ne Lo spirito del tempo, ma aggiungo, anche, che molte analisi presenti in questo volume si dimostrano strumenti ancora validi per la lettura e comprensione dei fenomeni messi in atto dall’attuale “diluvio di immagini”.

MARIA GRAZIA FALÀ

 

Andrea Rabbito

 

Andrea Miconi: “Impero e comunicazioni, prima della fase pop dei mass media”

“Impero e comunicazioni, prima della fase pop dei mass media”

Per Meltemi la riedizione del libro di Harold Innis a cura di Andrea Miconi

Andrea Miconi

Un testo di teoria a cui la storia si presta solo come terreno di dimostrazione, e che presenta vistose incongruenze nella ricostruzione storica. Un libro che si è affermato in Nord America e non, a differenza di quelli di McLuhan, nel mondo. Un lavoro a cui forse va nuociuto il fatto che è uscito troppo presto, quando la fase pop delle comunicazioni di massa non era ancora nel suo momento crescente. Poi, un determinismo tecnologico più asciutto e inteso sul piano del potere, del sistema, della struttura della società. Infine, il concetto di bias, inteso come orientamento e pregiudizio, che hanno informato tutta l’opera.

Sono questi i tratti salienti di Impero e comunicazioni, traduzione italiana di Empire and Communications (1950) di Harold A. Innis, studioso canadese morto nel 1952. Quest’edizione, a cura di Andrea Miconi, docente di Sociologia dei Media allo IULM di Milano, è una ristampa edita per Meltemi.

La sua curatela di Impero e comunicazioni, nella bibliografia, si ferma all’anno 2000. Questa edizione è forse una ristampa?

Esattamente, si tratta di una ristampa dell’edizione – la prima italiana – che curai per Meltemi nel 2001. Di certo gli anni che sono passati hanno aggiunto molto al dibattito sulla forma imperiale di governo del mondo, ma questo è.

Impero e comunicazioni esce nel 1950, quando ancora la Lineare B, cioè il miceneo, non era stata decifrata, e quindi questo per esempio falsa l’interpretazione che Innis fa della civiltà greca. Quanto risente il libro del fatto che è così datato?

Sempre nel testo vi sono svarioni come la battaglia di Maratona fatta risalire al 484 a. C., anziché, come ovvio, al 490 a.C….

Queste sono questioni [o meglio, sono esempi delle questioni] che discutemmo a suo tempo con il padrone di Meltemi – Marco della Lena, un editore di rara sensibilità intellettuale, che purtroppo morì poco dopo. Ce ne sono molti altri, perché da un punto di vista storico il libro di Innis fa acqua da tutte le parti: naturalmente, questo non toglie che qualche refuso o qualche errore sia colpa nostra, sia chiaro, e come curatore diciamo pure che la colpa va data a me. Ma i dettagli non cambiano la sostanza: come tutte le ricostruzioni ad ampio raggio, che si estendono su millenni, Impero e Comunicazioni non funziona come testo di storia. Semmai è un testo di teoria, a cui la storia si presta come terreno di dimostrazione. Ricordo che sul merito della storia egizia, ad esempio, erano saltate fuori altre inconguenze.

Peppino Ortoleva dice che, con Morin, gli studi di McLuhan sono “tuttora tra le principali fonti d’ispirazione per qualsiasi storico della comunicazione.” Perché non si può dire lo stesso di Innis?

Buona questione, che con Ortoleva abbiamo discusso più volte: personalmente sono d’accordo su McLuhan e meno su Morin, che secondo me ha fatto più danni che altro. Resta il fatto che Innis, come autore, si è affermato in Nord America, ma nel resto del mondo non è passato in alcun modo. Diciamo che la sua morte è arrivata prima della fase pop delle comunicazioni di massa, che avrebbe fatto la fortuna di Morin e McLuhan [come di Eco e Barthes, per dire], e infatti la sua ricostruzione si ferma alla radio. L’altra possibile spiegazione è che Innis ha lavorato sulle grandi sfere dell’organizzazione del mondo, senza ragionare sulle conseguenze culturali dei media sul piano del quotidiano, e questo rende meno digeribili, o anche meno interessanti, i suoi concetti. Da ultimo, non possiamo escludere che sia stato banalmente un divulgatore meno bravo di altri.

Come si può definire il cosiddetto determinismo tecnologico di Innis comparato con qullo di McLuhan, che è molto più hard?

Direi che i discorsi di Innis e McLuhan insistono su piani diversi: potere/cultura; spiegazione di sistema/effetti sul quotidiano; struttura della società/percezione individuale. In effetti, credo che McLuhan sia più lontano da Innis di quanto la sua celebre frase [sulla postilla] non lasci credere. Detto questo, mentre McLuhan è un autore contraddittorio [ad esempio, io lo leggo come materialista, mentre Ortoleva e altri considerano come medium, per McLuhan, il campo dell’interazione uomo/tecnologia], Innis è tutto sommato più asciutto. Il suo è un determinismo più puro, in certo modo.

In che modo va visto in Innis il concetto di bias? Come va inteso nel senso di pregiudizio e di orientamento?

Ho sempre pensato che il termine bias, nel caso di Innis, non fosse traducibile: il libro The Bias of Communication fu introdotto in Italia come Le tendenze della comunicazione, ad esempio, ma a prezzo di sacrificare una delle due aree semantiche. Una volta Vincenzo Matera mi disse che l’unica soluzione è tradurre bias come tendenziosità: termine che congiunge i due significati, appunto orientamento e pregiudizio. In Innis ci sono tutti e due: il medium dominante organizza la cultura e impone una percezione dello spazio del tempo, e insieme rende difficile, per chi appartiene ad una cultura, capirne un’altra – una considerazione che in fondo è in linea con tanta antropologia. Ad esempio, Innis considera il ‘900 come un terreno di scontro tra civiltà dominate dalla scrittura e civiltà segnate dall’avvento della radio. Un po’ come rileggere Huntington su base materialista, interpretando lo scontro delle civiltà non in base alle culture (cristiana/islamica, occidentale/confuciana) ma in base ai supporti su cui si sono legittimate.

MARIA GRAZIA FALÀ

 

Andrea Miconi

 

Gabriele Balbi e Paolo Magaudda: “Fallimenti digitali, per un’archeologia dei nuovi media”

“Fallimenti digitali, per un’archeologia dei nuovi media”

Non sempre nell’evoluzione mediale vince il migliore

Gabriele Balbi

“Guardando ai media come tecnologie, possiamo anche comprendere quali sono gli strumenti che hanno funzionato e quali, invece, sono stati dei fallimenti.”

“Se l’evoluzione darwiniana ci dice che la specie che resta è quella che si adatta meglio, per quanto riguarda i media le cose sono molto più complesse.”

“La definizione di “archeologia dei media” rimanda ad un recente e specifico campo dello studio sociale dei media che pone l’accento sulla riscoperta di aspetti trascurati dell’evoluzione mediale. Noi abbiamo in qualche modo “stirato” e ampliato questo concetto, focalizzandoci sulla storia dei media digitali, dei “nuovi” media.”

“Il fallimento, così come il successo, è per noi transitorio perché può sempre trasformarsi in un successo. Ma a volte i fallimenti possono essere produttivi, cioè generare altre idee, magari distanti da quella originaria; oppure possono essere talmente clamorosi da bloccare il sistema all’interno di un paradigma.”

Con queste parole Paolo Magaudda, ricercatore in sociologia all’Università di Padova e Gabriele Balbi, docente in media studies presso la Facoltà di Scienze della comunicazione dell’Università della Svizzera italiana, illustrano Fallimenti digitali. Un’archeologia dei ‘nuovi’ media, da loro curato ed edito da UNICOPLI.

Il libro da voi curato si incentra intorno a tre diversi modi di concepire il progresso non lineare dei media digitali, primo tra tutti gli studi sociali su scienza e tecnologia.

Infatti è così. Mentre per molto tempo si è discusso dei media pensando soprattutto ai loro contenuti – per esempio a quali tipi di

Paolo Magaudda

trasmissioni televisive vengono trasmesse o quali rappresentazioni sociali vengono proposte dai media – l’approccio degli studi sociali sulla scienza e la tecnologia ci aiuta a comprendere meglio il ruolo dei mezzi, degli strumenti, dei dispositivi, nel dare forma al panorama mediale. Così, guardando ai media come tecnologie, possiamo anche comprendere quali sono gli strumenti che hanno funzionato e quali invece, come nel caso del nostro libro, sono stati dei fallimenti.

Secondo punto che avete trattato, il modo non lineare e non darwiniano nel processo delle evoluzioni mediali…

Esatto. Guardare allo sviluppo dei media in modo non lineare significa abbandonare l’idea che gli strumenti della comunicazione si evolvano sempre verso il meglio, che diventino sempre più funzionali, e soprattutto, che rispondano in modo più utile ai bisogni delle persone. Lo vediamo oggi con lo scetticismo che circonda l’uso dei social media: sempre più spesso pensiamo che non siano i social media a rispondere meglio ai nostri bisogni di socialità, ma che, al contrario, la nostra vita sia diventata prigioniera e dipendente dalle logiche imposte da piattaforme come Facebook, Instagram o WhatsApp. Insomma, se l’evoluzione darwiniana ci dice che la specie che resta è quella che si adatta meglio, per quanto riguarda i media le cose sono molto più complesse.

Terzo aspetto, l’archeologia dei media: come si può definire, e come si discosta l’archeologia dei media tout court da quella dei “nuovi” media?

La definizione di “archeologia dei media” rimanda ad un recente e specifico campo dello studio sociale dei media che pone l’accento sulla riscoperta di aspetti trascurati dell’evoluzione mediale, in grado di rivelarci qualcosa di interessante anche su cosa succede oggigiorno: è il caso degli usi abbandonati di tecnologie come il grammofono o la radio ad inizio novecento. Noi abbiamo in qualche modo “stirato” e ampliato questo concetto, focalizzandoci non sulla storia di media “antichi”, come per esempio il grammofono, ma sulla storia dei media digitali, dei “nuovi” media, con la loro traiettoria più recente, ma anche per questo più controversa.

Voi avete definito quattro tesi eclettiche sul fallimento digitale. Tra queste, la prima è la transitorietà del fallimento, cioè la possibilità che un fallimento si traduca in un successivo per vari motivi, tra cui mutamenti sociali o anche il cosiddetto oblio del fallimento, per cui idee fallimentari vengono riproposte sul mercato. Ci potreste fare qualche storia di caso basandovi sull’esperienza della televisione?

Il fallimento, così come il successo, è per noi transitorio perché può sempre trasformarsi in un successo. Se consideriamo la televisione possiamo fare almeno due casi interessanti. Il primo è quello della televisione in movimento, un’idea che nasce già nel secondo dopoguerra (e quindi un paradigma che convive con la “classica” visione stanziale della televisione in salotto o più in generale in casa). Nel corso del tempo, ci sono state varie aziende che hanno proposto televisori mobili, ma il mercato è rimasto nella maggior parte dei paesi sostanzialmente di nicchia per svariati decenni – una sorta di fallimento. L’idea di fruire la televisione al di fuori delle mura domestiche, però, non è mai morta ed è anzi riemersa in maniera prepotente negli ultimi anni con la mobile TV o la TV guardata su tablet e smartphone. Un’idea analogica, insomma, è riemersa nell’universo digitale. Un secondo esempio è oggetto del capitolo che Giuseppe Richeri ha scritto per il nostro libro sulla televisione analogica in HD. In questo capitolo si mette infatti in luce come un fallimento possa essere letto sotto molteplici forme: per esempio, la TV HD analogica è anche morta a causa del cambio di paradigma digitale e della conseguente scelta di puntare sulla nuova tecnologia. Anche questo può essere descritto come un fallimento “digitale” semplicemente perché la presenza del digitale ha favorito la sconfitta dell’HD analogico. Richeri lo definisce come un caso di fallimento “esterno” in cui l’idea dell’alta definizione, ancora una volta, sarebbe rinata successivamente. In sostanza, la storia dei media ci permette di descrivere come i fallimenti siano sempre transitori.

Analogamente, esiste, come tesi, quella sulla transitorietà del successo. Ci sono studi di caso in tal senso? Come ha agito per esempio Netflix?

Il successo può trasformarsi al tempo stesso in fallimento. Non c’è dubbio, per esempio, che negli anni ’90 e inizio anni 2000 Blockbuster sia stata una catena di grande successo nell’affitto di VHS e poi DvD. Anche Netflix era partita con lo stesso modello di business: affittare DvD in rete spedendoli e poi facendoseli riconsegnare via posta. Questo modello, che appunto è stato per lungo tempo di successo, è di fatto collassato (tanto che Blockbuster è fallita) con l’introduzione di un modello “alternativo” di visione: lo streaming. Netflix ha capito con largo anticipo questo cambiamento di prospettiva e oggi è uno dei servizi di visione di contenuti “televisivi” più di successo al mondo. La grande intuizione, in questo caso, è stata quella di immaginarsi un diverso modello di distribuzione dei contenuti: l’utente paga un abbonamento mensile per fruire su smartTV o su altri supporti un portafoglio di contenuti piuttosto ampio. Senza muoversi da casa. Naturalmente questo modello di visione on demand e con contenuti specializzati (alcuni dei quali prodotti dallo stesso Netflix come certe serie TV ormai di culto), sta cambiando anche il modo di intendere e fruire la classica televisione lineare. Netflix, insomma, parte da un modello che a breve si sarebbe rivelato fallimentare (l’affitto di DvD fisici) per approdare a un modello vincente (lo streaming in abbonamento di contenuti esclusivi).

Cosa si intende (terza tesi) per produttività del fallimento? Si può applicare questo concetto allo sviluppo della televisione?

A volte i fallimenti possono essere produttivi, cioè generare altre idee, magari distanti da quella originaria; oppure possono essere talmente clamorosi da bloccare il sistema all’interno di un paradigma. Se pensiamo allo scambio di contenuti audiovisivi in rete (e quindi in senso largo anche alla televisione), in un altro capitolo del nostro libro Simone Arcagni ricorda come il modello di scambio peer-to-peer di contenuti alla Napster sia stato un fallimento nel breve termine: venne infatti chiuso pochi mesi dopo la sua creazione. D’altra parte il caso Napster è stato a tal punto simbolico e noto da generare un modello alternativo che si sarebbe affermato successivamente: invece del possesso di contenuti, la loro condivisione attraverso uno scambio tra pari (peer-to-peer appunto). Conclude nel libro lo stesso Simone Arcagni a pagina 171: “Il caso Napster – così come il successivo caso giuridico Megaupload e Megavideo – seppure si sia risolto con una sconfitta e un fallimento, ha portato all’attenzione dell’opinione pubblica non solo filosofie e ideali commerciali differenti, ma anche pratiche e strategie di cui lo stesso mercato ha dovuto tenere conto”. Ecco quindi che un fallimento può essere produttivo e generare nuove idee e visioni.

Infine, quarta tesi, la spiegabilità del fallimento. Il progetto Socrate della Telecom Italia, che influì anche sul fallimento della nascita della TV via cavo nel nostro paese, può essere spiegato in quest’ottica?

Il progetto Socrate, cui Paolo Bory dedica un capitolo all’interno di Fallimenti digitali, è un piano che l’allora monopolista SIP (poi Telecom Italia) aveva previsto per cablare il paese con la fibra ottica – la cosiddetta banda larga che di fatto ancora oggi non è uniformemente sviluppata in Italia. Questo avrebbe garantito un trasporto ad alta velocità di dati (quella che poi si sarebbe chiamata internet), ma l’idea originaria fu più quella che dovesse servire per trasportare programmi televisivi via cavo, in particolare favorendo lo sviluppo della televisione interattiva. Questa idea, finanziata da Telecom Italia con una cifra equivalente agli odierni 7 miliardi di euro, fallì per diverse ragioni: tra le altre, la difficoltà di accordarsi con le varie amministrazioni locali per l’impianto e l’interramento dei cavi, un modello verticale di rete che ben si congegnava alla TV ma male ai nuovi modelli di rete e, infine, l’assetto del mercato televisivo italiano, in cui i due grandi competitor RAI-Mediaset non avevano interesse verso il cavo. Ciò non vuol dire che occorre guardare al progetto di Telecom Italia col senno di poi, scorgendone solo le deficienze e il destino inevitabilmente segnato. Al contrario, una buona teoria del fallimento deve a nostro avviso saper spiegare le ragioni che spinsero a intraprendere quel percorso poi rivelatosi fallimentare. Prevedere anche in Italia una “strada ferrata” dell’informazione – come venne definita all’epoca dei vertici Telecom – era un’idea tutt’altro che stupida o fallimentare. Ma poi, per alcune delle contingenze descritte, non è andata a buon fine. Ancora una volta, come già ricordato, il fallimento va spiegato e visto anche nella sua dimensione generativa.

MARIA GRAZIA FALÀ

 

Paolo  Magaudda

Fallimenti digitali

Bruno Pischedda: “Due modernità ai tempi della guerra fredda”

“Due modernità ai tempi della guerra fredda”

Rieditata per UNICOPLI l’analisi delle pagine culturali de “L’Unità” (1945 – 1956)

Bruno Pischedda

Una selva di collaboratori illustri, come Pavese e Calvino, che discutono sul ruolo dell’intellettuale comunista nel primo decennio del dopoguerra. Viaggi in Russia raccontati in modo favolistico, fiabesco, per descrivere un mondo da epicità prometeica contro l’individualismo faustiano di marca USA. Un ruolo qualche volta contraddittorio ma non privo di aperture alla modernità con la pubblicazione di comics, romanzi gialli, racconti d’appendice. Un ripensamento del realismo e del neorealismo, cinematografico e letterario, ormai verso l’esaurimento. Infine, un atteggiamento da curiosi, anche se con riserve e senza una linea del tutto monolitica, verso il mezzo televisivo. Questi i tratti salienti di Due modernità. Saggio sulle pagine culturali dell’”Unità” (1945 – 1956), scritto nel 1995 da Bruno Pischedda, docente di Letteratura italiana contemporanea presso l’Università degli studi di Milano, e di recente ripubblicato per UNICOPLI.

Perché la decisione di ripubblicare un testo uscito a ridosso dello sfacelo dell’URSS, nel 1995?

Questo è un libro scritto quando ero abbastanza giovane, e che fu poco notato anche dagli esperti di giornali del tempo. Chi lo legge ora può cogliere la differenza tra il periodo in cui fu pubblicato la prima volta e adesso. Quando è stato scritto l’URSS era appena crollata in un clima di sfacelo diffuso sia a livello politico che economico, mentre la Russia di oggi a cui guardiamo noi, quella di Putin, ha connotazioni diverse. Mi è stato chiesto dall’editore il tentativo di riproporlo in momenti che appaiono così poco idonei e che stiamo vivendo in questi giorni. Forse riflettere su un passato recente o recentissimo mi sembra che abbia senso.

Come si profila la posizione dell’intellettuale comunista nel primo dopoguerra? Mi sembra che vi siano tre posizioni, quella di Elio Vittorini, quella di Emilio Sereni e quella di Antonio Banfi…

L’intellettuale progressista e magari comunista dell’immediato dopoguerra nutriva grandi speranze soprattutto sotto il profilo della democratizzazione della cultura. Questo era un progetto coltivato già negli ultimissimi anni della Resistenza con il Fronte della Cultura di Eugenio Curiel, e a Milano trova degli interpreti forse divergenti ma molto tenaci. Tra le persone nominate, due, Banfi e Vittorini, sono attivi a Milano, mentre Sereni, che presto passerà alla direzione della Commissione Centrale Cultura del PCI, sta a Roma. Questa è una distinzione che bisognerebbe tener presente, perché stiamo parlando dell’edizione milanese de l’Unità, in quanto nell’immediato dopoguerra ce ne erano quattro: Roma e Milano, le testate centrali, e poi Torino e Genova. L’Unità milanese ha un suo profilo non completamente sovrapponibile a quello romano, dove operavano Sereni e altri intellettuali vicini alla direzione centrale del partito. Per quanto riguarda i rispettivi punti di vista, Banfi pare più ligio alle consegne che erano state di Curiel, cioè un Fronte della Cultura che sapesse diventare una specie di movimento di massa, di intellettuali e non solo, con un fronte ampio. Quella di Vittorini sembra essere una posizione più corporativa, cioè che pensa a un dibattito da realizzarsi all’interno degli intellettuali, e pare leggermente più attardata rispetto a quella di Banfi. Sereni invece interviene facendo presente che una politica culturale deve essere una politica di partito, e quindi propone legami più stretti con il sindacato, con le federazioni. La sua è una visione acuta, anche profonda: è il primo che comincia a ragionare in termini di realismo, ricco però delle letture di Lukàcs ancora non disponibili agli intellettuali italiani – stiamo parlando del 45 – 46. Quando questo fronte degli intellettuali verrà alla sconfitta elettorale del 18 aprile del ’48, si aprirà una fase diversa. Un primo momento è quindi quello degli entusiasmi postbellici, poi c’è il ’48, e con esso tutti gli aspetti di tipo dogmatico che il PCI impone a tutta l’area dei suoi intellettuali.

Si può parlare, prima del ’48, di un fervore culturale e di sperimentazioni sulle pagine de L’Unità (appendicismo, comics)?

Nei primi quattro – cinque anni del dopoguerra a L’Unità di Milano si registra un forte dinamismo giornalistico. Questo avviene ad opera di due direttori molto diversi l’uno dall’altro, Renato Mieli, che restò in carica dal ’47 al ’48, fino al margine della sconfitta elettorale, e Davide Lajolo, che, arrivato dalla redazione torinese, guidò il quotidiano (edizione milanese) dal ’48 al ’58.

Mieli viene forse ritenuto un po’ troppo aperto alle suggestioni americaneggianti: non è un caso che l’Unità, che è un giornale comunista, pubblichi nel ‘46 i fumetti americani di Chic Young (in Italia cambiavano i nomi dei protagonisti, chiamati Blondie e Dagoberto), dove c’era una certa irrisione umoristica verso la middle class americana con le sue idiosincrasie. In quello stesso periodo c’era anche una rubrica di moda. Tutte queste iniziative, caduta la direzione di Mieli, verranno portate avanti da Lajolo. Nel ‘52, quando viene varata l’edizione del lunedì de l’Unità, si metteranno in terza pagina i racconti gialli all’americana, del genere hard – boiled, con nomi fittizi, forse confezionati a Milano da qualche collaboratore della testata, probabilmente Ida Omboni.

Invece l’appendicismo, presente sul quotidiano, era stato tipico anche di giornali socialisti ottocenteschi e novecenteschi, come l’Avanti!

Cosa potrebbe dire del realismo nel cinema e nell’arte?

È difficile concepire il neorealismo italiano cinematografico e letterario, nonché il realismo pittorico, separandolo dal progetto di marca realista elaborato dopo il ‘48 dai dirigenti comunisti.

Quello del realismo fu però un settore di cui ci si occupò anche dopo il ‘48. Prima del ‘48, osservando da vicino le pagine del giornale, il raggio delle proposte era molto ampio: c’era chi si interessava alla narrativa americana, chi a Valéry, chi al surrealismo francese, e così via. Poi, quando si passerà attraverso la Commissione Cultura di Sereni e poi di Carlo Salinari, la parola d’ordine del realismo si consolida e si stringono ancora di più i vincoli con il realismo socialista sovietico (e siamo dopo il ‘48).

Cosa accade nel ’48, dopo la sconfitta del Fronte popolare? Come si comporta, nel confronti del PCI, la “reazione”?

Questa è un’altra cosa che si dimentica un po’. Certamente c’è un aspetto settario e dogmatico da parte del PCI, dall’altra parte c’erano i discorsi di Scelba sul culturame, sulle polemiche contro gli intellettuali comunisti, in una condizione che potremmo dire di maccartismo all’italiana. Non vanno dimenticate le critiche asprissime alle mostre di Guttuso nonché le critiche di Montanelli a Picasso nell’ambito di una mostra tenutasi nel ‘53 a Palazzo Reale (il pittore veniva definito “il pittore dei nasi torti”). L’idea di intellettuale comunista negli anni ‘50 è insomma quella di un intellettuale di minoranza, con uno spazio di azione molto limitato.

URSS in quanto epicità prometeica e USA come individualismo faustiano: sono queste le modalità con cui l’Italia comunista guarda alle due realtà?

Questo è un capitolo centrale del libro perché è anche quello che gli dà il titolo, Due modernità, ed è stato affrontato secondo un punto di vista quasi antropologico – letterario. Gli anni dal ‘48 al ‘58 sono quelli del mito sovietico promosso decisamente dal PCI. È un mito difensivo: quanto più si fanno difficili le condizioni della lotta ideologico – culturale del Partito Comunista, tanto più c’è bisogno di alimentarlo e anche di portarlo ad apici di fantasiosità anche poco credibile. Fu anche un mito imposto, tant’è che ci fu una riunione molto tesa nel ’50 a cui partecipò pure il direttore dell’Unità di Roma Pietro Ingrao in cui l’ideologo sovietico Suslov mise sotto accusa i giornali del PCI che non davano adeguate informazioni sui viaggi in URSS. L’immagine però è interessante, perché noi oggi questa doppia immagine della modernità non l’abbiamo più. Nell’URSS si individuava una modernità collettiva, foriera di sviluppi civili per tutti, una modernità partecipata, che sapeva fare bene i conti con le tradizioni senza cancellarle, e dall’altra parte invece una modernità, quella americana, che si fondava sul mito dell’individualismo faustiano, con il continuo stravolgimento degli assetti dati in un’ottica di remunerazione per lo più di tipo economico. Caduta l’URSS, e caduti anche quegli anni, oggi l’idea di modernità non c’è più, per noi la modernità è la paura e basta.

In questo senso docet il resoconto di Calvino al ritorno dal suo viaggio in URSS, vista in un tono fiabesco, mitico. Per esempio cerca di dare una risposta razionale alle file che si vedono davanti ai negozi…

Calvino scrive da comunista ortodosso, anche abbastanza allineato sui percorsi dello stalinismo. Il suo reportage, Taccuino dall’URSS, è molto interessante perché Calvino è una persona intelligente che non vuole cadere nella retorica bolsa, pro – sovietica, pur utilizzando tutti gli artifici della retorica per convincere. Le immagini delle code che vede davanti ai negozi e al modo in cui le smonta per far vedere che tutto funziona perfettamente, la dice lunga. Molti anni dopo Calvino ritornerà su quel reportage dicendo che probabilmente aveva sbagliato.

Revisionismo kruscioviano e fatti di Ungheria: quanto hanno inciso sulla politica culturale de L’Unità?

Non saprei cosa dire con certezza, perché la ricerca si ferma al ‘56. Quello che si può dire è che, a seguito del XX Congresso del Partito Comunista Sovietico, tenutosi due anni dopo la morte di Stalin, avvenuta nel ‘54, termina anche tutta la teorizzazione del realismo. Vengono messi da parte Ždanov, le riserve sulla cosiddetta cultura decadente, alcuni autori vengono riabilitati, magari anche temporaneamente (è il caso di Boris Pasternak, autore del Dottor Živago, fatto arrivare in Italia qualche anno più tardi in formato clandestino).

C’è quindi una forma di disgelo che a l’Unità fa riaprire gli orizzonti. Intanto il neorealismo è in fase calante, come pure la letteratura neorealista, e si stanno profilando due fenomeni in controtendenza fortissima. Da un lato inizia la stagione delle avanguardie. Il ‘56 è l’anno in cui viene fondata la rivista Il Verri, punto di coagulo delle nuove avanguardie italiane, con Calvino, Eco, ecc., e vi è poi la fondazione, nel 1963, appunto, del Gruppo ’63. Dall’altro, nel ’58, c’è il boom del Gattopardo di Tomasi di Lampedusa, uscito postumo, che è una forma di romanzo totalmente antistorico.

In che modo reagisce il quotidiano comunista all’incipiente boom economico? Lo capì fino in fondo?

Il libro si ferma al ’56, però certe cose si vedono in maniera abbastanza nitida da subito. Il punto nodale va dal ‘54 al ’55, in particolare nel ‘55 quando ci sono le elezioni sindacali per le commissioni interne alle grandi fabbriche del Nord (FIAT, OM, ecc.) e la CGIL perde piuttosto drasticamente. Questo fatto obbliga la dirigenza comunista a una battuta di riflessione, e le due maxi proposte sul tappeto vengono a una chiarificazione. L’idea che fin dall’inizio era stata del Fronte Popolare di una democratizzazione della cultura che doveva introdurre il popolo all’usufrutto di una cultura alla sua portata, con un’alleanza stretta fra lavoratori e intellettuali, deve confrontarsi con la novità costituita dalla cultura di massa. Ma l’Unità milanese era così estranea a quest’ultima? La risposta è no, era già cultura di massa, quando aveva introdotto i fumetti, i gialli all’americana, quando si era occupata di fantascienza. Però nel ‘55, subito dopo le sconfitte sindacali, si aprono i grandi dibattiti con il cosiddetto Convegno del Triangolo in cui intellettuali e responsabili sindacali di Torino, Milano, Genova si mettono a riflettere su cosa sta succedendo al Nord. C’è uno studioso sindacale, Silvio Leonardi, che dice “Intanto ci siamo consumati in dibattiti ideologici su cosa fosse la vera cultura democratica, adesso abbiamo a che fare con una cultura di massa nuova che sta conquistando fette di popolazione sempre più larghe.” L’altro punto nodale è quando il critico cinematografico de l’Unità di Milano, Ugo Casiraghi, avvia un grande dibattito sulla natura del cinema, riflettendo se ancora si può parlare di un cinema neorealista, democratico, impegnato, stante che le pellicole più diffuse e che hanno un successo più largo sono film di tutt’altro tipo.

Tutti questi dibattiti sono già una preparazione al boom economico.

Si può dire che cronologicamente L’Unità preceda, nel valutare la televisione, alcuni scritti di Umberto Eco che sapranno, per certi versi, svelarne i meccanismi (mi riferisco, in particolare, a Fenomenologia di Mike Bongiorno)?

C’è un pregiudizio piuttosto diffuso tra gli storici secondo i quali la stampa comunista avrebbe demonizzato o sottovalutato l’impatto della TV sui costumi del Paese. Questo è un pregiudizio, perché se guardo l’Unità milanese, magari Rinascita no, ma appunto se guardo tale quotidiano che andava in mano a un milione di lavoratori – queste erano le tirature domenicali dell’Unità – l’attenzione verso la TV è immediata. È immediata con proposte anche all’inizio curiose. Nel ‘54 si pensa a una privatizzazione della TV per sottrarla al controllo democristiano – vaticano, e si criticano programmi troppo a ridosso dei partiti di governo, che davano una certa immagine degli USA.

Le asprezze ci furono e non possono essere cancellate, però vi fu una forte attenzione verso tale medium. In particolare sono due quelli che intervenivano in maniera più dinamica: uno era Paolo Gobetti, e l’altro Luciano Bianciardi, che scriveva un po’ sull’Avanti! e un po’ sull’Unità. Bianciardi, quando esplode nel ‘55 Lascia o raddoppia, ha delle posizioni molto argute con cui sottolinea l’attenzione che dovrebbe essere prestata ai suoi eroi.

Fenomenologia di Mike Bongiorno di Eco ha verve umoristica. Molti anni dopo il celebre presentatore, quando gli fu chiesto cosa ne pensasse di questo testo, rispose: “Eco lavorava alla RAI con me, quindi era uno di quelli che preparava i materiali per Lascia o Raddoppia. Si vede però che, rimanendo dietro le telecamere, ha avuto un po’ d’invidia.” Nel saggio di Eco c’era un’aggressività umoristica che in piccola parte era già stata adottata da Bianciardi negli anni ‘50. L’attenzione per la TV c’era, quindi, eccome, anche se non posso garantire che questo avvenisse pure sulle pagine de l’Unità romana.

Va detto infatti che non c’era una politica organica del PCI sulla TV, e quindi ogni critico andava un po’ per conto proprio. Ogni tanto a qualcuno tiravano le orecchie: per esempio una serie di articoli sulla televisione non furono graditi dalla Commissione Cultura della Federazione di Milano, che allora era costituita da Rossana Rossanda e da Raffaellino De Grada, che quindi convocò gli autori dei pezzi per richiamarli all’ordine.

MARIA GRAZIA FALÀ

 

Bruno Pischedda

Enrico Carocci: “Empatia incarnata, narratologia affettiva per un nuovo spettatore cinematografico”

 

“Empatia incarnata, narratologia affettiva per un nuovo spettatore cinematografico”

Una chiacchierata con Enrico Carocci sul suo “Il sistema schermo – mente”

Enrico Carocci

Corpo come elemento centrale per la comprensione delle condizioni prelinguistiche, sensoriali e affettive per la produzione del senso, anche per l’esperienza spettatoriale cinematografica. Vita affettiva che rende significativo ciò che ci accade anche quando, nel caso di un film narrativo, lo schermo sostituisce l’ambiente. Poi, empatia come termine che si riferisce a una gamma di meccanismi di condivisione delle emozioni. Inoltre, il cinema come medium che ci fa sperimentare la natura composita e stratificata di quella che si può definire “esperienza soggettiva”. Da non dimenticare, in tutto ciò, la “narratologia affettiva”, che si occupa di dinamiche narrative in quanto vissute, e non di strutture narrative considerate retrospettivamente. Infine, un’attenzione verso il film narrativo e non verso la serialità televisiva, che presenta modalità di fruizione diverse da quelle da “buio in sala”, anche se non mancano analogie tra i due generi (si vedano i serial cinematografici degli anni Dieci e fruizioni su più piattaforme anche del film). Questo, in sintesi, quanto emerso da una chiacchierata con Enrico Carocci, docente di Estetica del cinema e dei media all’Università Roma Tre, e autore de Il sistema schermo mente. Cinema narrativo e coinvolgimento emozionale, edito di recente da Bulzoni.

Come intende il concetto di mente secondo una prospettiva enattiva e incarnata e la mente dello spettatore di film narrativi?

Parto da un presupposto fondamentale: poiché un film può essere considerato come un gioco con le propensioni, gli automatismi e le potenzialità della mente umana, per comprendere l’esperienza spettatoriale è necessario tenere in considerazione i modelli proposti dalle scienze della mente. La riflessione sul cinema lo fa praticamente da sempre: fin dagli anni Dieci critici, intellettuali e cineasti hanno fatto riferimento esplicito al funzionamento della mente per comprendere il linguaggio audiovisivo, o per misurare il suo impatto sugli spettatori, oppure per tentare di realizzare film coinvolgenti. Nella seconda metà del Novecento, poi, alcune nozioni fondamentali per gli studi sul cinema sono state ispirate da modelli che provenivano dalla psicoanalisi e, poco dopo, dalla psicologia cognitiva. Oggi, grazie anche alla nuova fortuna delle neuroscienze, abbiamo a disposizione nuove ipotesi che possono darci molti spunti per comprendere l’efficacia dei film. Il dibattito contemporaneo è molto articolato; in generale, però, sembra impossibile oggi trascurare il ruolo del corpo, perché è il corpo a stabilire limiti e possibilità della nostra vita mentale; così come non è possibile sottovalutare la centralità dell’azione, dal momento che la mente possiede una fondamentale funzione di coordinamento dell’agire nell’ambiente. “Embodied cognition” è l’etichetta sintetica che si riferisce ai modelli di mente che riconoscono questa imprescindibilità del corpo e dell’azione. Potrebbe sembrare controintuitivo occuparsene in relazione allo spettatore cinematografico, cioè a un soggetto che non interagisce effettivamente con gli eventi narrativi, e che si trova in una situazione che sembra fatta apposta per fargli dimenticare di avere un corpo. Eppure, anche quando non è utilizzato per agire, il corpo rimane centrale per la comprensione delle condizioni prelinguistiche, sensoriali e affettive della produzione del senso. Gli studi sul cinema che si focalizzano sull’esperienza spettatoriale hanno ormai accolto ampiamente questa prospettiva: esiste ormai una quantità di studi, magari ispirati da presupposti diversi, che nel loro insieme ne hanno mostrato la produttività. Si può parlare di una diffusa “svolta corporea” nella teoria del cinema, che è cominciata nel corso degli anni Novanta e che sta continuando a mostrarsi vitale. Per quanto riguarda il mio lavoro, mi sono confrontato con la prospettiva della mente incarnata perché mi interessa il tema del coinvolgimento spettatoriale, e credo che dal paradigma dell’embodied cognition si possa imparare molto sulla natura delle emozioni. Perché è sul piano delle emozioni, prima che su quello dell’esperienza sensoriale, che il fenomeno del coinvolgimento si gioca. Il coinvolgimento non dipende soltanto dall’elaborazione degli stimoli audio-visivi che provengono dal film: immagini e suoni sono sì il canale attraverso cui facciamo esperienza, ma è la loro integrazione mentale a consentirci di incorporare il significato di una situazione narrativa. Nel mio libro, in particolare, ho fatto riferimento agli approcci enattivi, che sottolineano la natura dinamica, situata e primariamente affettiva del rapporto tra mente incarnata e mondo. C’è un primato dell’affettività nel nostro rapporto con l’ambiente, che è per noi sempre un ambiente fatto di significati e valori; e anzi la gamma dei nostri affetti può essere vista come la manifestazione della nostra fondamentale apertura, del nostro spontaneo “bisogno di essere coinvolti”. Siamo cioè, secondo questa prospettiva, dotati di una vita affettiva che rende immediatamente significativo quanto ci accade intorno. La differenza, nel corso della visione di un film, è che questa apertura si rivolge a significati e valori stabiliti dalla narrazione, cioè dal flusso di immagini e suoni organizzati narrativamente. Lo schermo sostituisce allora il nostro ambiente. Questo avviene soltanto nel momento in cui si attenuano gli altri stimoli esterni e interni: come è noto, quando lo spazio che circonda lo schermo si fa troppo presente, quando il nostro corpo è impegnato in un’altra azione, oppure quando siamo affettivamente disconnessi, un film semplicemente non ci coinvolge, anche se siamo in grado di percepirlo e magari comprenderlo senza difficoltà. Se si assume un’ottica relazionale, in ogni caso, è il nesso sistemico tra organismo e ambiente ad assumere rilevanza: ho intitolato il libro Il sistema schermo-mente proprio per evidenziare l’importanza di una prospettiva di questo tipo.

In che modo definirebbe il concetto di empatia, alla luce dei neuroni specchio e della situazione mentale dello spettatore nell’atto della fruizione filmica?

Non è semplice dare una definizione: e il problema è innanzitutto nella nozione stessa di empatia, che nel corso del tempo è stata riferita a una serie di meccanismi diversi attraverso cui riusciamo a “metterci nei panni” di un personaggio. Di sicuro, tra gli studiosi dell’empatia cinematografica, nessuno ha potuto ignorare la scoperta dei neuroni specchio: nemmeno quelli che, negli anni Novanta, avevano definito l’empatia in termini “disincarnati” e privilegiandone gli aspetti cognitivi. Questo non significa però, appunto, che si sia giunti a una definizione condivisa, né che tutte le spiegazioni proposte convergano unicamente sull’attivazione di meccanismi specchio. Per questo motivo credo sia preferibile considerare l’empatia come un termine che si riferisce a una gamma di meccanismi di condivisione delle emozioni, cioè all’intreccio di reazioni che vanno dal rispecchiamento alle forme più complesse di mind reading. È una gamma eterogenea: a volte si tratta di reazioni involontarie e quasi automatiche, altre volte il cinema ci richiede sforzi cognitivi maggiori, che ci impongono per così dire di rimodellare le risposte affettive più immediate. In ogni caso, se si assume una prospettiva incarnata, queste ultime rimangono il fondamento delle nostre dinamiche reattive (e sottolineo a proposito che il coinvolgimento emozionale è fatto anche di dinamiche anticipatorie, “pro” – attive, che difficilmente si potrebbero definire empatiche). Per tornare alla domanda, credo che l’implicazione più interessante della scoperta dei neuroni specchio sia il modello della “simulazione incarnata” proposto da Vittorio Gallese, che si riferisce a un meccanismo generale di funzionamento del cervello: è la condizione di ogni relazione intersoggettiva, perché ci consente di creare uno spazio di interazione condiviso che si basa sul “noi”, sul riconoscimento dell’altro come simile a noi. Si tratta di una nozione produttiva per gli studi sul cinema, come hanno mostrato in Italia lo stesso Gallese con Michele Guerra, oppure Adriano D’Aloia e Ruggero Eugeni: il cinema può essere molto coinvolgente anche perché gli spettatori possono comprendere in maniera diretta lo stato in cui si trova un personaggio, in quanto utilizzano in parte le proprie stesse risorse motorie, sensoriali o affettive per “incarnare” il senso di una particolare situazione. In qualche modo si tratta di una versione del tutto aggiornata del fenomeno che, tradizionalmente, gli studi sul cinema chiamano “identificazione”. O almeno, di alcuni suoi aspetti.

Alla luce delle teorie sull’empatia incarnata, cosa avviene nel cambiamento del Sé dello spettatore, del suo essere – al – mondo e della sua azione nel mondo?

La questione del coinvolgimento emozionale, in effetti, è direttamente collegata al tema dei confini del Sé e al livello di “immersione” che un film ci consente di raggiungere. Anche la nozione di “Sé”, però, è complessa. Anche a volersi concentrare soltanto sul Sé esperienziale, direi che si tratta di una struttura all’interno della quale coesistono diversi livelli di coscienza: livelli che sono normalmente integrati, in modo da consentirci di avere esperienze unitarie e coerenti, e delle quali sentiamo di essere i “soggetti”. Davanti a un film narrativo, gli schemi di integrazione del Sé vengono per così dire riconfigurati: è un po’ come se si verificasse una disconnessione tra i livelli corporei-affettivi e quelli più riflessivi e consapevoli, tra i livelli che generano la sensazione di essere soggetti dell’esperienza in atto e quelli che ci consentono di ricordare che siamo individui, che possediamo una biografia fatta di esperienze sedimentate. Per questo, nel momento in cui siamo spettatori appassionati, siamo noi stessi e allo stesso tempo non lo siamo: il coinvolgimento vive di questa alternanza, tra la sensazione di essere immersi nella storia e il riaffiorare della consapevolezza del luogo in cui ci troviamo. Come ha scritto Francesco Casetti, si tratta di una negoziazione che riguarda l’integrità e la posizione dell’“io” che vive l’esperienza filmica. Uno dei motivi di interesse del cinema, mi sembra, è proprio questa capacità di far emergere questa natura paradossale, niente affatto monolitica, dell’esperienza “in prima persona”: ciò che sentiamo davanti a un film si riferisce ai personeggi e alle vicende narrate, e tuttavia riguarda profondamente noi, anche a un livello viscerale. Faccio un esempio personale: talvolta mi trovo a temere per la vita di un personaggio che deve essere giustiziato, ma quando la situazione diventa particolarmente intensa e l’esecuzione si avvicina non sono più in grado di dire se temo per la sua vita o per la mia; talvolta, lo dico con qualche imbarazzo, mi trovo addirittura a sperare che arrivi un ordine di sospensione dell’esecuzione, e che per una volta le cose possano andare diversamente, anche quando so già che non accadrà. Tutto questo può accadere anche se conosco già il film, e so come andrà a finire: il fatto di essere alla seconda o terza visione, in molti casi, non intacca l’efficacia del coinvolgimento. Sospetto chi siano esperienze sostanzialmente condivise: quello che accade è che, nel momento in cui un film evoca emozioni primarie, ad esempio legate alla sopravvivenza, si attivano strutture affettive di base, che costituiscono il nucleo preriflessivo del Sé, e che sono autonome rispetto a quelle più consapevoli e riflessive. Anche dinamiche legate all’attaccamento possono essere molto efficaci in questo senso. Per concludere, il cinema ci fa sperimentare con estrema evidenza la natura composita e stratificata di quella che chiamiamo “esperienza soggettiva”, e di questa capacità le scienze della mente possono darci spiegazioni convincenti. Davanti a film astratti o di poesia il coinvolgimento piò essere anche molto intenso, basato su emozioni estetiche difficili da sperimentare nell’esperienza ordinaria, ma funziona diversamente rispetto alle dinamiche su cui mi concentro nel libro. Per questo mi riferisco sempre a un cinema narrativo o rappresentativo: un film narrativo è una macchina che sfrutta la nostra costitutiva apertura al mondo per riconfigurare le nostre esperienze affettive, ad esempio disconnettendole dagli aspetti più consapevoli della nostra coscienza. Il che ci consente di partecipare più liberamente, e talvolta in maniera più intensa, alle vicende: in una maniera che tra l’altro può essere estremamente efficace per la regolazione del Sé e degli affetti. A questo proposito, ad esempio, Michele Cometa ha mostrato come una delle funzioni dei racconti sia in qualche modo terapeutica, e riguardi il contenimento dell’ansia.

In che misura la narratologia affettiva si differenzia da quella tradizionale che è stata a lungo oggetto degli studi semiotici, e che ha preso in esame tanto la produzione scritta quanto quella filmica?

Se ci si concentra sull’efficacia emotiva di una narrazione, è necessario pensarla in termini di esperienza vissuta, “istante-per-istante”. Una narrazione, in questa prospettiva, è l’organizzazione gerarchizzata di nuclei micro-narrativi, cioè delle piccole unità esperienziali che costituiscono una storia vissuta, e che corrispondono ampiamente al modo in cui organizziamo anche le nostre esperienze quotidiane. Fin dalla prima infanzia, ancor prima di imparare a parlare, organizziamo i nostri vissuti in piccoli episodi che sono già forme narrative, sebbene non verbali. Sono proto-narrazioni di natura affettiva. Una “narratologia affettiva” (il termine è proposto da Patrick C. Hogan) si occupa di dinamiche narrative in quanto vissute, e non di strutture narrative considerate retrospettivamente. Secondo questa proposta le unità minime del racconto, ad esempio, non andranno individuate in costrutti spazio-temporali oggettivi, quanto piuttosto in episodi di salienza emozionale soggettiva, dal momento che sono le emozioni a conferire significati particolari a determinate situazioni. Se ci limitassimo a decodificare eventi dislocati in uno spazio-tempo coerente sperimenteremmo soltanto una catena di eventi privi di significato e di forza. Una narratologia affettiva aggiunge insomma la consapevolezza degli aspetti vissuti di quegli eventi: ad esempio la loro rilevanza emozionale, oppure la sensazione che il loro susseguirsi implichi una progressione che genera quel senso di “spinta in avanti” che fonda il coinvolgimento narrativo. È una prospettiva dinamica e qualitativa che si concentra sulla coerenza e coesione emozionale del racconto, a vari livelli di complessità; ed è una proposta, mi sembra, complementare rispetto al progetto della semiotica. La semiotica si è occupata tanto delle “passioni” quanto dell’esperienza mediale, e non ha rifiutato peraltro il confronto con le scienze cognitive; il suo obiettivo, come ha scritto bene Ruggero Eugeni, è lo studio del “design dell’esperienza mediale”, cioè dei progetti che costruiscono l’esperienza di fruizione, a partire da immagini e suoni ordinati narrativamente (nel caso degli audiovisivi). Se le narratologie cognitive di stampo anglo-americano non sottolineano questa complementarità, credo, è per trascuratezza, o perché intendono la semiotica come una disciplina fondata su teorie linguistiche da rigettare in blocco.  È una questione di tradizioni accademiche. Per quanto mi riguarda è sempre più interessante individuare i punti di contatto tra approcci diversi, quando esistono, e naturalmente fatta salva la necessaria cautela sul piano dei presupposti teorici di fondo. Per altri versi, credo che l’incontro tra prospettive umanistiche e scientifiche, quando queste si trovano a condividere gli stessi oggetti o gli stessi problemi, sia per molti aspetti necessario. Non è un’integrazione semplice; esistono però molti modi per realizzarla, e tutti contribuiscono allo sviluppo di quella che Murray Smith ha chiamato “terza cultura”, un’ipotesi che prevede una reciproca cooperazione tra modelli umanistici e modelli scientifici.

Cosa ne pensa delle serie televisive narrative (penso, ad esempio, a Homeland), che richiedono una fruizione lenta e continua nel tempo, e che non hanno uno spazio di fruizione come (spesso) la sala buia tipica dei film?

Faccio una premessa. Nel mio libro mi sono concentrato sul piano della sistemazione teorica: non ho cercato, per il momento, di trarre una vera e propria metodologia per l’analisi dell’emozione a partire da costrutti filmici, sebbene credo ci sia già qualche spunto in tal senso. È una parte del lavoro che vorrei sviluppare in futuro, ma che non considero come un passaggio automatico né scontato, come non lo è mai il passaggio dal piano della teoria a quello della metodologia. Ora, mi sembra, è su quest’ultimo piano che emergono le maggiori differenze tra il film di finzione e la serialità televisiva. I racconti seriali sono concepiti e strutturati secondo principi in parte diversi rispetto a quelli cinematografici e tutto questo ha ricadute sul piano metodologico, ragione per cui gli strumenti per l’analisi della narrazione televisiva sono in parte diversi da quelli per l’analisi del cinema narrativo. Per il resto, però, bisogna ricordare che anche la fruizione di un film può avere luogo in forme non tradizionali: attraverso nuovi dispositivi, su nuove piattaforme, secondo nuove strategie produttive e distributive. Le storie del cinema, d’altra parte, includono tra i propri oggetti i serial cinematografici, prodotti già negli anni ’10 e fruiti in sala con tempi paragonabili a quelli della fruizione televisiva (la quale, da parte sua, può essere fruita oggi in forma bulimica, come dimostra la pratica del binge watching). Quello che mi preme sottolineare è che i meccanismi e i regimi emozionali tipici delle narrazioni audiovisive dipendono in generale dalle condizioni che caratterizzano le situazioni di fruizione cinematografica. Considero “cinematografica” ogni situazione di fruizione in grado di soddisfare alcuni requisiti tipici dell’esperienza in sala, ma che possono avvenire in contesti diversi: il corpo tendenzialmente immobile, l’impossibilità di interagire con la vicenda narrata intervenendo sul corso degli eventi, un relativo oblio dello spazio circostante, risorse cognitive focalizzate su ciò che avviene sullo schermo. È in condizioni di questo genere che funzionano i meccanismi e regimi emotivi tipici dell’esperienza spettatoriale, oppure le dinamiche di integrazione del Sé cui accennavamo prima. Se le consideriamo sotto questi aspetti, le narrazioni cinematografiche e quelle televisive si somigliano.

MARIA GRAZIA FALÀ

 

Enrico Carocci

Gianfranco Marrone: “Prima lezione di semiotica, genealogia e non storia”

 

“Prima lezione di semiotica, genealogia e non storia”

Gianfranco Marrone dell’Università di Palermo racconta i tratti portanti del suo ultimo libro

Gianfranco Marrone

Riuscirebbe difficile creare dei “medaglioni” di semiologi partendo dall’agile Prima lezione di semiotica, edito recentemente da Laterza e scritto da Gianfranco Marrone, docente di Semiotica all’Università di Palermo. Piuttosto, occorrerebbe parlare più di genealogia, cioè di un metodo che tira le fila di una disciplina, la semiotica, forse con troppe origini ma che ha avuto uno statuto ufficiale solo a partire dagli anni ’50 del Novecento. Poi, sempre nel volumetto, una disamina di concetti come segno, simbolo, semi – simbolo. Inoltre, un ampio spazio dedicato a Propp, piuttosto che a Greimas, già trattato in un altro lavoro. Propp come capostipite della narratologia, della scienza cioè che studia il contenuto nella sua articolazione formale. Con essa si possono studiare sia testi “alti” sia quelli delle comunicazioni di massa, anche se Propp, che distingueva tra opere di Dante e Shakespeare come “grandi” ed opere di folclore, appare viziato, secondo Marrone, da un’estetica ancora di stampo idealista – marxista. Narratività come mezzo per studiare anche corpus di articoli, e che si differenzia dall’analisi del contenuto che studia solamente la “superficie” dei testi, cioè contando le sole occorrenze testuali. Infine, lo studio delle serie TV sempre con la narratologia, procedendo a due livelli, uno micro (le singole puntate), e uno macro (la serie tout court).

Il suo libro si articola come una genealogia della semiotica, non come una sua storia: qual è la differenza?

Genealogia è un termine che Nietsche ha usato per la prima volta nel suo Genealogia della morale, poi lo ha ripreso Foucault spiegando che la genealogia non è un fare storico che va alla ricerca delle origini e che segue una linearità precisa, ma una strategia di ricostruzione di un concetto, di un discorso, di fatto, a partire da molteplici direttive. Nel caso specifico della semiotica, essa non ha un’origine storica unica, ne ha troppe: essa deriva dalla medicina, dalla divinazione, dalla poetica, dalla retorica, dalla logica, dalla metafisica, dalla grammatica e quant’altro. Ad occuparsi del linguaggio, dei segni, dei simboli, nel corso della storia ci sono state troppe correnti, le quali però spesso hanno poco dialogato tra loro. Sono tutte interessanti, ma di difficilissima ricostruzione dal punto di vista lineare. La genealogia invece ci permette di “beccare” un po’ qui un po’ là: ci sono tre linee che la semiotica ha seguito negli ultimi tempi: da un lato la filosofia della conoscenza, e quindi tutta la problematica che parte da Kant e arriva fino al cognitivismo contemporaneo, da un altro lato la linguistica, con Saussure, ecc., in terzo luogo l’antropologia, soprattutto quella che studia le narrazioni (fiabe, i miti, leggende, ecc.), con autori come Propp e Lévi – Strauss. Quello che ho provato a fare nel mio libro è stato vedere i punti di convergenza di ricerche che a prima vista sono molto lontane tra loro. Propp e Hjelmslev non si conoscevano, nessuno sapeva dell’esistenza dell’altro, eppure, ognuno nel proprio ambito, operavano con le stesse metodologie. La semiotica quindi vive di un paradosso: da un lato è una disciplina molto antica, però distribuita tra saperi diversi, dall’altro è nuovissima, in quanto è sorta a metà degli anni Cinquanta del ‘900 quando, nata la società di massa e dei mezzi di comunicazione di massa, il problema della comunicazione è divenuto centrale nella costruzione del sociale.

Il termine senso assume in semiotica, come la parola forse più nota segno, una connotazione particolarmente significativa…

Di solito si dice che la semiotica è una scienza dei segni, ma in realtà sarebbe come dire che la linguistica è una scienza delle parole: la linguistica non lo è, ma è una scienza dei meccanismi profondi che le costruiscono e fanno sì che queste poi vadano a costruire frasi, testi, discorsi. Nel caso della semiotica è esattamente lo stesso, in quanto dire segno è come dire la punta dell’iceberg: in realtà esso è un’entità costruita da procedure formali profonde, a volte nascoste, che invece la costituiscono. Nel mio libro parto dall’esempio di una gita estiva, di un qualcuno che va in giro per un’isoletta alla ricerca di un posto dove fare un bagno, e mostro come, a partire da un segno banale, totalmente involontario di una serie di macchine parcheggiate alla rinfusa, si costruisce un segno (“qui si può fare il bagno”). Questo segno ha dietro di sé dei processi cognitivi, dei codici culturali, dei meccanismi testuali di funzionamento, le forme narrative, e quindi il segno sparisce. Il vero oggetto della semiotica è invece il senso, o per meglio dire la significazione, cioè il modo in cui il senso si articola nelle varie culture, epoche, anche a livello individuale, in cui ciascuno di noi dà senso al mondo a partire da forme quasi sempre di tipo narrativo.

Quindi il senso è qualcosa che sta al di là dei singoli significati…

Esattamente. Il senso, cioè, si dà sempre per approssimazione attraverso segni che lo indicano, ma non sta in nessuno di questi in particolare. Basta prendere una frase: nel libro cito l’es di Hjelmslev che propone molti modi in cui in molte lingue si dice “non so”. Molte lingue lo dicono, ma qual è quella di queste che dice il senso? Lo dicono tutte ma tutte in modo approssimativo, il senso è quello che io definisco la condizione della possibilità della traduzione.

I tipi di significazione, in semiotica, sono tre: quello del segno, quello del simbolo e quello del sistema semi – simbolico, utilissimo per studiare linguaggi come quello televisivo, della carta stampata, ecc…

Il concetto di sistema semi – simbolico, è emerso relativamente da poco, di solito si parlava solo della differenza tra segni e simboli. I segni sono entità costruite da elementi più piccoli, i simboli no, sono monolitici (la croce per indicare il cristianesimo o la mezzaluna per indicare l’Islam), se li scomponi non c’è più segno, mentre se i segni li scomponi il segno rimane. I semi – simboli sono a metà, sono come delle forme di analogia, A sta a B come x sta a y. Il caso più banale è quello del semaforo, in cui il verde significa “potete passare” non in sé, ma in un sistema dove il rosso significa “dovete star fermi”. In altri contesti infatti il verde cambia completamente di significato (può significare la natura, il verde delle croci delle farmacie, la speranza, ecc.). Quando parliamo di semi – simboli, di esempi ne possiamo fare a bizzeffe: pensiamo al mondo della pubblicità, dove spesso si usa girare una parte dello spot in bianco e nero e una parte a colori, dove quando arriva il prodotto improvvisamente lo spot diventa a colori. Ciò non significa che il bianco e nero sia negativo e il colore positivo, è in quello spot là che funziona il sistema semi – simbolico, che consiste in micro – codici che funzionano a partire da quando vengono istituiti, ma non hanno nessun valore in generale.

In semiotica si possono spiegare le invarianti sul piano del contenuto solo con la narratologia, e nel fare questo Propp e Greimas docent. Perché ha scelto, per esemplificare questa disciplina, Propp e non Greimas?

In primo luogo, l’idea di fondo della semiotica consiste nel dire che tutto ciò che è il senso quando viene articolato e diventa significazione reale ha sempre una forma di tipo narrativo. Il senso, è un termine che nella lingua italiana significa tre cose: significato, senso (i cinque sensi), ma soprattutto direzione (senso vietato, senso unico, in che direzione sto andando). Quindi è chiaro che qualsiasi cosa che ha un senso nella nostra vita è perché sta in una catena di eventi collegati tra loro da un orientamento di tipo narrativo: noi siamo intrecci di storie.

In secondo luogo, ho parlato di Propp e non di Greimas un po’ perché questo libro vuole fare una genealogia della semiotica e non una storia, mentre Greimas sta dalla parte della storia (me ne sono occupato poi in tanti miei libri, ma soprattutto nel mio Introduzione alla semiotica del testo). Prima lezione di semiotica è una specie di parte precedente a Introduzione…, una specie di presupposto, in cui ho cercato di far vedere come le teorie narrative di Greimas derivino da Propp, cosa che tutti sanno anche se nessuno era entrato così nel dettaglio come ho provato a fare io.

Ho riletto la polemica Propp – Lévi – Strauss, e mi è sembrata molto significativa perché Lévi – Strauss diceva a Propp “sei troppo contenutista e poco contenutista, troppo formale e poco formale, in quanto le funzioni sono troppe (31), e con troppe funzioni si reifica… Non pensa che sia in realtà un po’ così e che sia migliore l’interpretazione che ha dato Greimas della narratologia?

Certamente, ma Propp a me interessa perché ha avuto un ruolo storico nell’applicazione dello strutturalismo alla narrazione. È chiaro poi che ha dei limiti storici ma anche politici: egli viveva e lavorava a Mosca negli anni Trenta e Quaranta e non era facile essere strutturalisti in quel luogo e in quell’epoca. Pertanto è evidente che è dovuto entrare a compromessi con l’ideologia sovietica del periodo, e quindi distingueva tra un’analisi morfologica e un’analisi storica.

Distingueva la parte storica da quella morfologica in Morfologia della fiaba o in Le radici storiche dei racconti di fate?

Le radici storiche dei racconti di fate vogliono essere un cambiamento di rotta, in cui Propp dice: “Abbiamo studiato la morfologia, adesso studiamo la storia,” e quando risponde a Lévi – Strauss lo fa in questi termini. Secondo me il libro migliore di Propp è quello pubblicato da Einaudi nel 1984, poi sparito, e che si chiama La fiaba russa: lezioni inedite. È il suo libro finale, bellissimo, un po’ dimenticato, degli anni ’60, in cui lui mette insieme morfologia e storia, e lì supera Lévi – Strauss.

Una cosa che mi sembra significativa di Propp è quando dice che nessuna analisi morfologica potrà rendere conto della bellezza di opere come quelle di Dante e Shakespeare…

Questa considerazione gli deriva da un tipo di estetica idealista – marxista, la semiotica successiva non avrà nessun problema ad analizzare contemporaneamente la fiaba russa e Shakespeare. Tra l’altro analizzare i grandi scrittori non toglie nulla alla bellezza delle loro opere, semplicemente cerca di capire i loro meccanismi di funzionamento. Fare questo per un’opera letteraria, folclorica o cinematografica non significa eliminare il valore estetico, anzi vuol dire determinare il modo in cui esso si costruisce e arriva al destinatario.

In che senso la semiotica potrebbe essere utilizzata per sostituirsi a cavalli di battaglia delle scienze sociali come la content analysis?

Quando dagli anni ‘60 in poi è cominciata la necessità di studiare i contenuti dei messaggi dei media, di solito si sono scelte due strade. Una è quella che risale a McLuhan e li analizza dal punto di vista della tecnologia: è un’ipotesi molto deterministica. La natura, la cultura, dipende dal tipo di tecnologia, come pure il linguaggio adoperato da ciascun medium. Quindi il linguaggio televisivo sarà diverso da quello cinematografico perché in un caso c’è il piccolo schermo dall’altro il grande schermo. Oggi questa è un’ipotesi assolutamente superata: non esistono più grandi schermi – piccoli schermi, ma schermi che variano in continuazione a seconda dello strumento che si adopera.

L’altra strada è stata quella di studiare i contenuti dei media. I sociologi hanno inventato questa tecnica di analisi del contenuto e, non avendo nessuna preparazione linguistica o semiotica, si sono messi a contare le parole. Contando le parole o le strutture minime della frase non riesci a costruire il significato complessivo di un testo. Se dico “Berlusconi” dieci volte il problema non è che utilizzo questa parola, ma che se la pronuncio in vari contesti, pur usandola sempre, parlo di due cose diverse. Contare le parole quindi non porta a niente. L’analisi strutturale lavora invece sulle ipotesi di tipo narrativo, e quindi non intende analizzare le parole, ma i testi.

Ma quando ci si trova di fronte a un corpus di articoli da analizzare, come si muoverebbe l’analisi semiotica? Partirebbe da una campionatura, poniamo, di cento unità?

L’analisi semiotica si muove distinguendo tra il materiale che uno ha a disposizione che può essere il più eterogeneo, e il corpus. Il corpus è il modo in cui il materiale subisce delle integrazioni o delle selezioni per diventare coerente. Per esempio ho cento articoli sulla riforma sanitaria? Non è detto che siano tutti interessanti, ce ne possono essere tre, quelli che costruiscono delle forme narrative, gli altri non mi interessano. Invece i sociologi prendono quei cento articoli, li inseriscono dentro un computer e li fanno analizzare da un programma che conta le parole, dopodiché, se l’articolo sta in prima pagina o se sta invece in una pagina interna, è cambiato, non è la stessa cosa. Per loro però le parole sono sempre le stesse, non hanno l’idea della struttura, dell’insieme mentre, come diceva Saussure, è soltanto la relazione tra gli elementi che dà valore a ciascuno di essi.

Quindi come farebbe lei se dovesse analizzare un fenomeno con un corpus nutrito di testi?

Il problema non è analizzare il tema, quello è il mio punto di partenza, cioè un contenuto dato è quello che Hjelmselev chiamerebbe la materia del contenuto, è un po’ il senso di cui dicevamo prima. Il problema sono le forme del contenuto, cioè come viene articolato narrativamente, discorsivamente, quello per me è interessante, perché a mio parere solo le forme danno valore ai singoli elementi.

Come potrebbe la sociosemiotica analizzare fenomeni di massa come le serie televisive?

Innanzitutto a un livello testuale che potrebbe essere quello di analizzare tutti i contenuti narrativi delle singole serie. Io stesso per esempio tanti anni fa ho lavorato sulla serie di Montalbano nel periodo in cui era diventata famosa (parlo di più di dieci anni fa). Avevo preso film per film e mi ero messo lì ad analizzarne le trame, il sistema dei personaggi, ad articolare spazi e tempi, ecc..

Tornando al discorso in generale, una cosa è analizzare le singole puntate e le strutture narrative, un’altra cosa è analizzare il fenomeno in sé, a un livello sociosemiotico, cioè le serie televisive. Esse oggi hanno scardinato completamente l’opposizione tra cinema e TV, prima ovvia, perché hanno realizzato prodotti di grande qualità e successo, rompendo l’opposizione tra sceneggiato e grande cinema e soprattutto permettendone una fruizione completamente identica. Per esempio il concetto della puntata legata al tempo non c’è più: io scarico la serie e vedo tutte le puntate di seguito, decidendo come costruire il mio ritmo di fruizione. Ecco, questo è un fenomeno sociosemiotico interessante.

MARIA GRAZIA FALÀ

 

Gianfranco Marrone UNIPA

Gianfranco Marrone