Camminabilità: qual è quella del posto in cui vivi? Ricevuto il 22.10.2009
La camminabilità è una caratteristica di un’abitazione che tutti i proprietari o affittuari, nonché chiunque stia considerando l’acquisto di una casa, dovrebbero conoscere e tenere nella giusta considerazione.
Cos’è la camminabilità?
La camminabilità di un’abitazione, o meglio del suo indirizzo, misura quanto è facile vivere in quel posto senza essere costretti ad avere un’automobile, o almeno senza doverla per forza usare ogni giorno per qualsiasi cosa, fosse anche comprare una scatola di fiammiferi. Uno dei modi per misurare la camminabilità di un indirizzo è assegnargli un punteggio da 0 a 100, chiamato “livello della zona camminabile” (in inglese “watershed index”, spiegato qui). La “zona camminabile” (di solito un cerchio di un chilometro e mezzo di raggio centrato sull’indirizzo a cui si riferisce) è quella in cui una famiglia può spostarsi facilmente camminando, senza usare l’auto.
Il livello in questione dipende da quante cose diverse, dallo svago (fare sport oppure frequentare teatri e musei) a quelle necessarie per la vita quotidiana (fare la spesa, andare a scuola, dal medico o alla Posta) si possono fare rimanendo dentro la zona camminabile, cioè senza guidare!
Un livello superiore a 90 è considerato un paradiso per camminatori, cioè un indirizzo a cui si può vivere senza problemi anche se non si possiede un’auto. Valori inferiori a 25, invece, identificano abitazioni i cui residenti riescono a camminare solo dalla porta di casa alla portiera dell’auto!
Link all’articolo completo, blog di Marco Fioretti:
http://stop.zona-m.net/it/node/21
—
Geotermia: il calore della terra entra nelle nostre case 20.10.2009
Il sottosuolo terrestre rappresenta una ricca e pressoché inesauribile fonte di calore che può essere sfruttata per la climatizzazione degli edifici. Si tratta della geotermia a bassa entalpia la quale è ancora poco nota e scarsamente diffusa in Italia. Essa rappresenta invece una straordinaria opportunità di risparmio economico e tutela ambientale.
Se state edificando una nuova abitazione o ristrutturandone una già esistente, potreste pensare di optare per un sistema di riscaldamento a geotermia. Impianti di questo tipo sono ancora poco diffusi in Italia, prevalentemente per carenza di informazione a riguardo e perché è facile lasciarsi spaventare dalla portata dell’intervento iniziale di installazione. Eppure si tratta di una soluzione sorprendentemente conveniente sul piano economico, oltre che ottimale a livello ecologico.
In realtà l’Italia è il Paese ove l’energia geotermica è stata per la prima volta utilizzata a fini industriali ed è tuttora uno dei principali produttori di energia geotermolettrica. Si tratta però di impianti che impiegano il calore del sottosuolo per produrre energia elettrica nelle centrali: vapore ad alta temperatura aziona delle turbine meccaniche. Diverso è il discorso della geotermia quale fonte per la regolazione della temperatura degli edifici.
Occorre, infatti, fare distinzione tra i diversi modi in cui si può sfruttare il calore terrestre (“geotermia” appunto). Esso ha origine nella crosta e nel mantello del pianeta in seguito al decadimento radioattivo di alcuni elementi che compongono tali strati; successivamente esso viene trasferito verso la superficie terrestre mediante movimenti convettivi ascensionali del magma o di acque profonde. Da qui segue la nascita di molti fenomeni come le eruzioni vulcaniche, le sorgenti termali, i geyser e le fumarole.
In virtù di tali fenomeni naturali, nella maggior parte delle aree del nostro pianeta le rocce hanno una temperatura di circa 25-30°C ad una profondità di 500m e arrivano a 35-45°C a 1000m. In alcune regioni, poi, condizioni geologiche particolari (come la presenza di una crosta più sottile, di fenomeni di vulcanesimo o fratture tettoniche) fanno crescere le temperature a tale profondità fino a 200°C e oltre.
Ovviamente si tratta di profondità notevoli e quindi inaccessibili, ma l’azione dei fluidi geotermici presenti nella crosta terrestre fa sì che al di sotto di soli 15-20m si abbia una regione, chiamata zona di omotermia, in cui la temperatura è già discretamente elevata e stabile, ossia del tutto indipendente dalle variazioni climatiche locali e stagionali.
L’Italia è il Paese ove l’energia geotermica è stata per la prima volta utilizzata a fini industriali ed è tuttora uno dei principali produttori di energia geotermolettricaIn Italia la zona di omotermia ha una temperatura compresa tra i 12 e i 17°C, a prescindere dalle differenze di struttura rocciosa, stratigrafia e assetto geologico presenti nella nostra penisola.
Il calore naturale proveniente dal sottosuolo può essere sfruttato, come già affermato, per generare energia in grandi centrali elettriche: in tal caso si parla di geotermia ad alta entalpia (di questa e dei suoi effetti pericolosi parleremo in un prossimo articolo).
Si può però impiegare questa risorsa terrestre direttamente come fonte di calore, o meglio come riferimento termico dal quale attingere calore per il riscaldamento di edifici in inverno o al quale cedere quello “in eccesso” nella stagione estiva. Il suolo terrestre può infatti assorbire facilmente tali variazioni, divenendo un vero e proprio serbatoio di caldo o freddo (a seconda della temperatura esterna con il quale lo si confronta). Questo seconda formula è definita geotermia a bassa entalpia.
Come sfruttare la geotermia per il condizionamento dell’aria negli edifici?
Per farlo occorre realizzare opportuni impianti i quali si compongono di tre elementi: le sonde geotermiche, la pompa di calore e le strutture di distribuzione.
Le sonde sono rappresentate da tubi fatti generalmente di polietilene, collocati nel sottosuolo e attraversati da un fluido vettore (acqua con eventuale aggiunta di additivi). E’ in esse che si realizza lo scambio termico: il liquido attraversa il terreno scendendo fino alla profondità desiderata dove acquisisce la temperatura ambientale locale, cioè assorbe calore oppure ne cede a seconda della temperatura di partenza (vale a dire quella superficiale). Al che esso risale lungo i tubi di ritorno e porta all’esterno la temperatura acquisita.
Le sonde possono essere verticali, ossia coppie di pali infissi nel terreno per mezzo di perforazioni di lunghezza compresa tra 50 e 300m (ma mediamente 100-150m); oppure orizzontali, in tal caso si va ad una profondità minore ma si installano grosse serpentine o pettini di tubi. Se quest’ultime sono senza dubbio meno costose, di contro richiedono la disponibilità di spazi maggiori e, soprattutto, sono meno efficienti. Infatti, più si va in profondità, più stabile è la temperatura, inoltre si “guadagna” qualche grado (superati i primi 15-20m di profondità, si ha un incremento di 1°C all’incirca ogni 30m).
Una volta che il liquido contenuto nei tubi risale in superficie, entra in gioco la pompa di calore: essa è in grado di raffreddare o riscaldare ulteriormente il fluido, fino a condurlo alla temperatura finale desiderata. Ovviamente questa operazione, che sfrutta lo stesso principio impiegato nei frigoriferi (ossia il secondo principio della termodinamica), comporta l’impiego di energia elettrica. Ma la differenza di temperatura da coprire in questo caso sarà molto minore rispetto a quella esistente in origine, vale a dire quella tra l’ambiente esterno e l’interno dell’abitazione. E dato che l’energia elettrica impiegata è proporzionale all’intervallo da percorrere, l’uso della geotermia comporta un grossissimo risparmio.
Le sonde sono rappresentate da tubi fatti generalmente di polietilene, collocati nel sottosuolo e attraversati da un fluido vettore. E’ in esse che si si realizza lo scambio termicoIl terzo elemento della catena è rappresentato dalle strutture di distribuzione del calore. L’impianto geotermico è generalmente affiancato da soluzioni di distribuzione diffuse nell’edificio, ossia grandi pannelli installati sotto il pavimento, le pareti e/o il soffitto. Meno indicati sono i radiatori. Quelli classici, impiegati dalla maggior parte degli altri sistemi di riscaldamento, operano a temperature molto elevate (fino a 70°C), in quanto sono localizzati in alcune zone della casa, dalle quali il calore deve raggiungere le aree più lontane dal radiatore. Gli impianti diffusi, invece, possono essere tenuti a temperature di 20-30°C, in quanto agiscono su superfici estese. Ciò significa che mentre per questi ultimi la pompa di calore ha poco lavoro da compiere, per i primi la faccenda è ben più onerosa e comporta un dispendio di energia elettrica che rischia di vanificare i vantaggi della soluzione geotermica.
Ciò fa sì che la climatizzazione da calore del suolo sia particolarmente indicata per edifici di nuova costruzione o nei quali si stiano rifacendo gli impianti. In caso di sistemi pre-esistenti, alcune aziende propongono modelli si radiatori ad alta efficienza che, se sostituiti a quelli classici, riescono ad operare a temperature non troppo alte, così da rendere la soluzione geotermica comunque praticabile.
La realizzazione di un impianto di tal tipo deve naturalmente essere preceduta da studi di fattibilità che analizzino la struttura geologica dell’area di interesse, nonché indaghino la collocazione di altri impianti o servizi sotterranei.
L’eventuale presenza di falde acquifere non pregiudica l’installazione delle sonde geotermiche. Al contrario, se vi è disponibilità di acqua sotterranea per la prossimità di falde freatiche o di laghi o altre sorgenti, si può pensare di far uso diretto di essa quale fluido vettore di calore. Saranno ovviamente necessarie due perforazioni, una per portare l’acqua alla pompa di calore ed una per restituirla al sottosuolo. Limitazioni a tale tipo di impianti sono però poste nel caso in cui da tali sorgenti sia prelevata acqua per altri scopi (ad esempio agricoli).
Secondo le indagini condotte dall’Enel, la soluzione geotermica è praticabile in quasi tutte le zone del nostre paeseOccorre inoltre sapere se la regione è fortemente esposta a fenomeni sismici e di movimenti tettonici, perché le sonde potrebbero venire danneggiate dopo l’installazione (ovviamente questo problema sussiste prevalentemente per i tubi infissi in verticale fino a grandi profondità).
Secondo le indagini condotte dall’Enel, la soluzione geotermica è praticabile in quasi tutte le zone del nostre paese. E se in Toscana la geotermia industriale (con produzione di energia elettrica in centrali geoelettriche) è altissimamente impiegata, un obiettivo che l’azienda è interessata a perseguire è la diffusione della geotermia a bassa entalpia, per la climatizzazione degli edifici. In essa l’Italia è ancora piuttosto arretrata rispetto agli altri paesi economicamente sviluppati: spiccano in particolare gli Stati Uniti, con più di 600.000 pompe di calore installate, la Svezia (60.000 unità), la Cina, la Svizzera (che conta 16.000 nuovi impianti all’anno), l’Islanda, la Germania, il Canada, la Norvegia e la Francia.
Ma perché e quanto conviene optare per un impianto di condizionamento a geotermia?
In primo luogo si tratta di una fonte praticamente inesauribile e del tutto rinnovabile. Non comporta inquinamento del suolo (però durante l’installazione, nei procedimenti di perforazione, devono essere utilizzati fanghi e fluidi ecocompatibili) e il paesaggio non viene perturbato in alcun modo, visto che le strutture sono sotterranee.
La geotermia determina una totale indipendenza da qualunque carburanteNon si ha emissione di CO2 se non da parte della pompa di calore, la quale però, come spiegato, compie un lavoro molto inferiore rispetto a quello che necessario nei sistemi di riscaldamento tradizionale (a gasolio ma anche a metano e GPL). In più la geotermia determina una totale indipendenza da qualunque carburante, dall’importazione di questo nonché dalle variazioni di prezzo. L’energia termica del suolo è sempre a disposizione, in loco, e non ha un prezzo di acquisto.
L’impianto non necessita manutenzione, è in grado di sopravvivere in ottime condizioni per 100 anni in media e permette di avere sia raffreddamento sia riscaldamento (ossia due funzioni di climatizzazione con una sola struttura).
Infine i risparmi sulla bolletta sono altissimi, si va dal 65% all’75% (a seconda dell’efficienza dell’impianto, del tipo di edificio e talvolta anche dalla natura del suolo). Ovviamente il costo di partenza è molto più elevato di quello di un impianto a fonti fossili, ma nel giro di pochi anni si ammortizza sulla bolletta la spesa iniziale.
Per una villetta unifamiliare di 150mq, in condizioni geologiche nella media (in Italia), un impianto geotermico può costare intorno ai 20000 euro, contro i 10-12000 di un sistema classico. Il rientro in bolletta dell’eccesso di spesa iniziale avviene in un arco di anni che dipende ovviamente dal tipo di impianto con cui lo si va a confrontare, comunque nella peggiore delle ipotesi non si va oltre gli 8. Dopo di che è tutto risparmio economico.
In termini ecologici, invece, il vantaggio è immediato, fin dal primo giorno di attività.
Vale dunque davvero la pena di affidarsi al caldo cuore della “nostra madre Terra”.
—
30/10/2009 – IL PRESIDENTE IN UNA BASE MILITARE PER ACCOGLIERE I CADUTI DELLA GUERRA IN AFGHANISTAN
La svolta di Obama: saluto alle bare
Un gesto inedito mentre la Casa Bianca decide sui rinforzi
da inviare a Kabul
FRANCESCO SEMPRINI
NEW YORK
Sono le quattro del mattino nella base aerea di Dover, nel Delaware, e nel buio che avvolge la linea dell’orizzonte si sente sempre più forte il rombo dei motori del C-17 mentre riporta in patria le salme dei 18 americani morti lunedì in Afghanistan. Ad attenderli c’è Barack Obama, giunto a sorpresa poco prima da Washington a bordo di un elicottero: il presidente vuole fare i conti di persona con il sacrificio umano di una guerra che deve vincere a tutti i costi, specie perché tra poco dovrà decidere quanti altri soldati inviare al fronte.
Il cargo militare atterra, si apre il portellone posteriore, e una ad una sfilano le bare: quindici uomini dell’Esercito e tre agenti della Dea, morti in incidenti a tre elicotteri. Con loro, ottobre è diventato il mese con più morti tra le fila americane dall’inizio della missione nel 2001: i militari caduti sono già 56, un nuovo record di sangue che richiede da parte di Obama un segnale forte. Il suo predecessore, George W. Bush, diceva che il modo più giusto per commemorare i caduti era incontrare i loro familiari in privato e per questo non ha mai ricevuto le salme, preferendo vedere i parenti lontano da telecamere e flash. Obama è invece convinto del contrario e per questo ha voluto cambiare la legge che dalla Guerra del Golfo del 1991 vietava le riprese delle bare dei caduti. Ora sono i parenti a decidere e circa i due terzi hanno sino ad oggi acconsentito a rendere pubblico il loro dramma.
Come la famiglia di Dale Griffin, un sergente dell’Indiana: la sua è stata l’ultima delle bare avvolte dalla bandiera americane a sfilare ieri davanti al Presidente, e l’unica delle 18 a essere ripresa dalle telecamere. L’immagine è toccante: Obama, come comandante supremo delle Forze Armate, lo saluta con la mano tesa alla fronte assieme agli altri uomini in mimetica e basco nero. Pochi secondo di filmato bastano a intuire il dramma del «dignitoso trasferimento», come lo chiamano i commilitoni che si rifiutano di definirla cerimonia, «perché non c’è nulla da celebrare». Poco dopo il Presidente saluta i familiari di Griffin, stringe le mani al picchetto d’onore dei sei soldati che hanno portato a spalla il sergente e si imbarca di nuovo sull’elicottero diretto verso la capitale.
Il viaggio di ritorno è una lunga e profonda riflessione personale, racconta il portavoce Robert Gibbs, per tutti i 45 minuti di durata Obama si trincera nel silenzio. «Non puoi fare un’esperienza del genere senza capirne la drammaticità», dice Gibbs, resa maggiore dal fatto che l’attuale inquilino della Casa Bianca si trova a gestire due guerre che ha ereditato dal passato, quella in Iraq da terminare il prima possibile, e quella in Afghanistan da vincere il prima possibile. Ma per farlo non bastano rinforzi e una nuova strategia, occorre il sacrificio di altre vite umane e quindi altre bare avvolte nella bandiera a stelle e strisce che atterrano sulla pista di Dover.
Obama ritiene giusto che ogni americano partecipi al dolore delle famiglie dei caduti, facendo quello che nessun Presidente aveva fatto negli anni passati. Del resto la drammaticità della guerra è già ampiamente documentata dai media quando trasmettono ogni giorno i bollettini di guerra, come quello di ieri che ha raccontato la fine di due soldati Isaf – uno statunitense – saltati sopra ordigni artigianale. O due giorni fa quando alcuni funzionari Onu impegnati nelle operazioni di ballottaggio del 7 novembre sono caduti sotto il fuoco dei taleban. Un attacco che ha costretto il Palazzo di vetro al richiamo del personale «non essenziale», mentre a New York il Consiglio di Sicurezza convocato d’urgenza discute, in parallelo a Washington, il da farsi sulla missione.
http://www.lastampa.it/redazione/cmsSezioni/esteri/200910articoli/48843girata.asp
—
30/10/2009 – LE NUOVE DISPOSIZIONI ENTRERANNO IN VIGORE DAL 9 NOVEMBRE
Dispersione delle ceneri, no della Cei
«Così si perde il ricordo dei morti». I vescovi contrari anche alle urne nelle case
GIACOMO GALEAZZI
CITTA’ DEL VATICANO
Nuove norme per le esequie. Saranno ufficializzate il 9 novembre, all’assemblea Cei di Assisi, le disposizioni con cui la Chiesa conferma il sì alla cremazione, ma proibisce la dispersione delle ceneri e la conservazione dell’urna in casa perché «il regno dei morti e quello dei vivi devono restare distinti». La prassi di spargere le ceneri in natura, oppure di conservarle in luoghi diversi dal cimitero, come, ad esempio, nelle abitazioni private, è vietata. Sono scelte basate su «concezioni panteistiche o naturalistiche».
Lo spargimento delle ceneri o le sepolture anonime «impediscono la possibilità di esprimere con riferimento a un luogo preciso il dolore personale e comunitario». Inoltre rendono «più difficile il ricordo dei morti, estinguendolo anzitempo». E per le generazioni successive la vita di coloro che le hanno precedute scompare. Se il defunto ha espresso la chiara volontà di far disperdere le ceneri o conservare l’urna in un luogo diverso dal cimitero, si dovrà appurare il disprezzo della fede cristiana.
In questo caso, non si potranno concedere le esequie ecclesiastiche. In Italia le cremazioni sono il 10% dei decessi (53mila su 558mila decessi annui) e sono in funzione 45 crematori (altri 6 sono previsti entro giugno): 31 al Nord, nove al Centro e solo cinque al Sud. Ciò significa che la cremazione arriva al 15,7% al Nord, al 9,6% al Centro e allo 0,35% nel Mezzogiorno. Gli impianti più grandi si trovano a Milano, Torino, Roma, Genova e Bologna. A questo ritmo di crescita nel 2009 le cremazioni saranno 210mila l’anno (35%). «Nell’ultimo decennio si è passati dallo 0.7% a quasi il dieci nazionale – spiega Alessandro Bosi, segretario della Federazione Imprese Onoranze Funebri (Feniof) -. E’ un trend supportato dal proliferare di leggi regionali che regolamentano il settore manca una normativa ad hoc nazionale».
Un boom dovuto non solo ai cambiamenti nell’atteggiamento verso la morte o le opzioni polemicamente atee, come scrive la Cei, ma anche a motivazioni economiche. Il costo medio di un servizio funebre è di 2.700 euro, più l’acquisto del loculo che arriva a costare al metro quadro quanto una villa di lusso (3mila euro). In totale, il giro d’affari annuo del «caro estinto» è di circa un miliardo e mezzo di euro. Rispetto alla tumulazione e all’inumazione la cremazione è più economica (massimo 500 euro), un quinto dell’importo, incluse tassazione e diritti di competenza comunale, sanitaria e di polizia mortuaria.
Proprio perché così non occorre acquistare un loculo, si sta affermando il ricorso all’urna cineraria. Il regolamento di polizia mortuaria prevede, infatti, che le urne possano essere collocate anche in loculi nei quali vi sia già un feretro. E se una famiglia non possiede un loculo per le urne cinerarie, è in vendita a 350 euro uno spazio nel quale depositarle. In alternativa alla tumulazione dell’urna cineraria ci sono l’affidamento e la dispersione delle ceneri. La dispersione è consentita in: Lombardia, Piemonte, Toscana, Umbria, Emilia Romagna, Valle D’Aosta, Marche, Lazio, Campania e Liguria.
http://www.lastampa.it/redazione/cmsSezioni/cronache/200910articoli/48841girata.asp
Vorrei decidere io dove tenere le spoglie dei miei morti.
—
Il capitalismo storico e la scelta di fondo odierna
Appunto della redazione: Riceviamo e volentieri pubblichiamo un articolo del prof. Duccio Cavalieri che, pur essendo lontano dalle opzioni di politica economica sostenute dalla redazione della rivista, ci auguriamo possa avviare un dibattito sulle prospettive del “liberismo di sinistra”. (La Redazione).
Duccio Cavalieri* – 31 Ottobre 2009
Il liberismo classico della scuola di Manchester implicava un’idea chiaramente utopistica: quella di un ordine naturale che avrebbe teso a realizzarsi spontaneamente e che in un contesto perfettamente concorrenziale sarebbe stato in grado di assicurare a tutti un massimo relativo di soddisfazione (un ‘ottimo paretiano’), operando trasferimenti di risorse tra impieghi alternativi, senza alterare sostanzialmente la distribuzione preesistente del reddito.
Così idealizzato, il capitalismo non è un modo di produzione storicamente determinato, ma una categoria universale sovrastorica, capace di mutare nella forma, ma non nella sostanza. E dunque destinata a durare in eterno. Il capitalismo reale, ovviamente, è tutt’altra cosa. E’ un tipo di organizzazione dell’economia finalizzato alla produzione per il profitto e all’accumulazione del capitale. Con tutto ciò di buono e di meno buono che questi obiettivi comportano: dall’efficienza e dalla spiccata capacità di promuovere lo sviluppo delle forze produttive di un paese, alla soggezione a crisi ricorrenti e devastanti, e dalla mancanza di vera democrazia a un’oppressione sociale.
Nel capitalismo odierno, la ferrea logica di riproduzione del capitale, finalizzata all’estrazione e appropriazione privata di un plusvalore, impedisce a una larga parte degli esseri umani di emanciparsi dal lavoro salariato e di realizzare attraverso un’attività autonoma e non alienante la loro vera essenza. Così da passare da uno stato di necessità al regno hegelo-marxiano della libertà.
Splendori e miserie del capitalismo vanno ugualmente riconosciuti. Ma non certo accettati. Se l’attuale meccanismo del mercato, soggetto com’è all’azione interessata di potenti gruppi organizzati, lasciato a se stesso non è in grado di risolvere i grandi problemi sociali della nostra epoca, non si deve necessariamente pensare di abolirlo. Se si ritiene che esso svolga una funzione economica insostituibile, si deve cercare di regolamentarlo, per renderlo socialmente più accettabile.
Lungo questa strada, penso che nuove prospettive si siano aperte, dopo l’ultima grande crisi del sistema capitalistico, per attuare una convergenza tattica tra la sinistra e una parte dei neoliberisti. C’è oggi un neoliberismo di stampo conservatore, che si limita a difendere delle posizioni di privilegio, comunque acquisite, e che avversa il keynesismo. Ma c’è anche un neoliberismo progressista, che si avvicina molto al keynesismo. Keynes, come è noto, si dichiarava un ‘liberal’. Ed era un membro autorevole del Liberal Party.
Negli ultimi anni, una parte del liberismo si è mossa in una direzione progressista. Il prefisso ‘neo’ sta ora a indicare non qualcosa di perso e di ritrovato, o di rinnovato, ma qualcosa di definitivamente superato. Non si fa più riferimento alla vecchia idea di un ordine economico naturale e perfetto, da non ostacolare, ma a una concezione diametralmente opposta. Quella di chi, rendendosi conto che non esiste un ordine naturale e perfetto, auspica la realizzazione di un ordinamento economico consapevolmente creato dagli uomini e basato su un esplicito rifiuto della deregulation e del lassismo fiscale.
Negli anni ’30 del secolo scorso il liberismo classico fu riproposto in Inghilterra, in termini simili a quelli tradizionali, alla London School of Economics di Robbins e Hayek. Ma la reazione non si fece attendere. Nel 1938 ebbe luogo a Parigi un famoso incontro, il Colloquio Walter Lippmann, che è oggi considerato come il momento iniziale del neoliberismo progressista. Poi, con la seconda guerra mondiale, il processo di diffusione della nuova ideologia liberista subì un’interruzione.
Il dopoguerra vide una ripresa del liberismo classico di stampo conservatore. Nel 1947 fu fondata la Mont Pélerin Society, per iniziativa di Hayek, Mises, Popper e altri. Nel 1955 sorse a Londra l’Institute of Economic Affairs, creato per contrastare il keynesismo allora imperante. Assieme alla Chicago School e al monetarismo di Friedman, esso ispirò il programma di politica economica del governo conservatore di Margaret Thatcher e quello dell’amministrazione repubblicana di Ronald Reagan.
Dopo un periodo di relativo declino, legato alla fine ingloriosa del sistema aureo e del suo sostituto, il gold exchange standard, il liberismo di stampo conservatore è stato oggetto negli anni ’80 di un tentativo di rilancio operato negli USA, con il nome di ‘Washington consensus’. Si tratta di un indirizzo di politica internazionale ispirato alla ‘nuova sintesi neoclassica’, chiaramente subalterno agli interessi economici americani e politicamente impegnato nella difesa di posizioni storicamente acquisite attraverso un meccanismo di divisione internazionale del lavoro che apprestava uno schema di specializzazione produttiva fondamentalmente ingiusto, a vantaggio dei paesi che si erano industrializzati per primi e a danno degli altri. Questo liberismo dai connotati conservatori è stato purtroppo sostenuto dal IMF, dalla World Bank e dal WTO, organismi che erano stati creati per fornire un aiuto finanziario ai paesi con bilancia dei pagamenti in forte disavanzo e per promuovere lo sviluppo economico e la liberalizzazione del commercio internazionale, ma che finora non sono apparsi all’altezza dei compiti istituzionali loro assegnati.
Ma torniamo al mercato. Per rilevare che, lasciato a se stesso, esso non appare in grado di assicurare un utilizzo razionale delle risorse produttive. I prezzi di mercato delle merci non esprimono adeguatamente le scarsità relative; la struttura dei consumi è distorta dall’azione interessata dei produttori; vi sono sprechi dovuti alla presenza di posizioni oligopolistiche, che comportano la creazione di capacità produttiva in eccesso. Inoltre le intese tra produttori tendono a rallentare il ritmo di introduzione del progresso tecnico e la distribuzione sperequata della ricchezza fa sì che la domanda solvibile dei vari beni e servizi non rifletta l’urgenza relativa dei bisogni dei diversi individui. Se si considera che il capitalismo è storicamente caratterizzato da una distribuzione del reddito poco uniforme e da una propensione al risparmio maggiore da parte dei percettori dei redditi più elevati e minore da parte dei percettori dei redditi più bassi, è facile comprendere come possa accadere che la domanda globale stenti a tenere il passo con la produzione e che il sistema dell’economia di mercato vada incontro a difficoltà di realizzo e a conseguente disoccupazione di massa, un fenomeno che comporta alti costi individuali e sociali.
Non solo. Nelle economie di mercato di tipo capitalistico anche la capacità di lavoro dell’uomo è una merce, e come tale forma oggetto di scambio sul mercato. Essa è però una merce di tipo particolare, perché a differenza delle altre merci la forza-lavoro non è separabile dalla persona che la presta. In un’economia di mercato i posti di lavoro si creano e si distruggono non in base alle esigenze lavorative della popolazione, ma in base alla convenienza economica delle imprese, che reagiscono a impulsi di natura esogena provenienti dalla domanda. La disoccupazione non è quindi l’esito di una scelta volontaria operata da individui che non hanno voglia di lavorare, o che non accettano di lavorare al saggio di salario corrente, ritenendolo troppo basso, come credevano gli economisti classici e neoclassici, ma è in larga parte frutto dell’insufficienza della domanda aggregata, dovuta alla maldistribuzione del reddito. In un sistema sociale caratterizzato da una più equa distribuzione del reddito, la disoccupazione da insufficienza della domanda probabilmente non esisterebbe.
Sul piano internazionale, i maggiori difetti del capitalismo odierno sono da ricondurre alla sua incapacità di risolvere in modo soddisfacente i due problemi del controllo della liquidità internazionale e dell’indebitamento dei paesi del terzo mondo. La sostituzione all’oro del dollaro, non più convertibile, come mezzo usuale di pagamento internazionale ha presentato il grave inconveniente di attribuire a un solo paese, gli USA, il controllo sulla creazione della liquidità e di porre tutti gli altri paesi in condizioni di inferiorità e di vulnerabilità. Il paese la cui moneta costituisce valuta di riserva internazionale può infatti vivere tranquillamente al di sopra dei propri mezzi e stampare e cedere propria moneta per colmare senza alcun costo un disavanzo della sua bilancia dei pagamenti. Può quindi vivere meglio, a spese del resto del mondo, che è costretto a cedergli risorse reali e ad accordargli un prestito irredimibile illimitato e totalmente privo di interessi. E può così addossare ad altri paesi anche il costo di sciagurate imprese avventuristiche, come le guerre preventive.
L’indebitamento di molti paesi in via di sviluppo si è nel frattempo aggravato fino a diventare insostenibile. Ciò è avvenuto anche per l’atteggiamento poco responsabile tenuto dal Fondo Monetario Internazionale, che ha per lungo tempo concesso credito ai paesi in via di sviluppo con eccessiva facilità. Salvo poi imporre loro condizioni pesantissime per ottenere il rifinanziamento dei debiti pregressi, onde tutelare gli interessi dei paesi creditori.
I disastrosi risultati di questo stato di cose sono davanti agli occhi di tutti. Quando il dollaro si deprezza, un’eccessiva liquidità si riversa in tutto il mondo sui mercati delle attività patrimoniali, reali e finanziarie. Con la conseguenza di accrescere la domanda, generando una pressione inflazionistica, e di ‘drogare’ artificialmente l’economia. Quando invece il dollaro aumenta di valore, il mercato delle attività tende a deprimersi. E questo a sua volta genera una recessione su scala mondiale.
A complicare le cose si aggiunge l’impossibilità per gli USA stessi di esercitare un controllo sugli enormi flussi di dollari messi in circolazione, una volta che questi siano usciti dal loro paese. Quantità ingenti e incontrollabili di capitali a breve termine (hot money) sono così destinate a spostarsi rapidamente in tempo reale sui mercati finanziari di tutto il mondo, verso i famigerati paradisi fiscali, alla ricerca di tassi di rendimento più elevati e non soggetti a tassazione. Con effetti fortemente destabilizzanti per l’economia mondiale.
La grave crisi globale del sistema capitalistico, oggi in atto, è stata affrontata in modo del tutto inadeguato. I tentativi di salvataggio compiuti in tutto il mondo dalle autorità responsabili della politica economica hanno interessato essenzialmente le grandi banche di affari, le compagnie di assicurazione e le principali agenzie di mutui immobiliari. Si è cioè ricapitalizzato con fondi pubblici il sistema finanziario preesistente, primo responsabile della crisi. Molto meno si è fatto per sostenere le attività produttive delle imprese (soprattutto di quelle medie e piccole) e i consumi della popolazione.
In queste condizioni, non meraviglia che il neoliberismo odierno si presenti, in una sua importante componente, come regolazionista. E quindi come assai diverso dal vecchio liberismo classico. Vero è che un’altra parte dei liberisti oggi invoca l’intervento pubblico non per porre fine a delle posizioni di privilegio, ma per tentare di conservarle. Basti considerare gli ostacoli che i liberisti più conservatori stanno ponendo al progetto di Barack Obama di dotare i ceti meno abbienti di un’assicurazione sanitaria, a spese pubbliche. Ma questo non fa che rendere più urgente l’esigenza di fornire un sostegno ai liberisti di sinistra. Nel nostro paese si è da tempo auspicato l’avvento di un nuovo ‘liberismo di sinistra’, riformista e dotato di precise regole. Ad esso mi sembrano essersi recentemente ispirati Francesco Giavazzi e Alberto Alesina. E anche, aggiungerei, Giulio Tremonti, notoriamente contrario a una globalizzazione incontrollata dei mercati finanziari. Di cosa si tratta? Di una politica che, praticata in un sistema di libero mercato, meritocratico e dotato di un’elevata mobilità sociale, dovrebbe consentire ai ceti sociali meno abbienti di migliorare stabilmente la loro posizione economica, attraverso l’impegno e il lavoro. Malgrado le differenze di opportunità individuali. In queste proposte non vi è nulla di nuovo. L’idea che una maggiore liberalizzazione dei mercati si tradurrebbe non solo in una maggiore efficienza del sistema produttivo, ma anche in una maggiore equità, è vecchia come il cucco. L’hanno a suo tempo sostenuta in Inghilterra Beveridge e Laski, in Francia Rueff e Allais, in Germania Rüstow, Röpke e la scuola ordo-liberista di Friburgo, che ha denunciato i disastri del capitalismo storico e patrocinato una sorta di economia sociale di mercato.
Ma queste proposte sono state respinte da molti esponenti della sinistra, che le hanno ritenute un tipico esempio di trickle-down theory, basata sull’idea, già sostenuta dai fautori della supply-side economics, che aiutare i ricchi a diventare ancora più ricchi finisca, quasi per un effetto di osmosi (il principio fisico dei vasi comunicanti), con l’avvantaggiare anche i poveri. E in ultima analisi col ridurre le differenze di reddito. Credo che non occorra spendere molte parole per chiarire che questo non è vero. La maggior parte dei dati statistici disponibili mostra che in genere tra efficienza ed equità intercorre una relazione inversa. Più libertà di mercato si accompagna a una maggiore disuguaglianza, anche se il reddito medio delle famiglie aumenta.
La tesi in questione è quindi chiaramente erronea. Ma l’idea di fondo dei liberisti di sinistra – quella che un sistema economico liberista, efficacemente regolamentato, sia preferibile all’attuale capitalismo selvaggio e possa consentire di migliorare anche le condizioni di vita delle classi più svantaggiate – mi pare pienamente condivisibile. Non vedo alcun valido motivo perché la sinistra debba respingerla. Come invece mi sembra che stia avvenendo.
Fortunatamente, esponenti di una cultura liberale disposta a guardare a sinistra, piuttosto che a destra, ci sono sempre stati in Italia. Anche in tempi più duri di questi. Si pensi al socialismo liberale di Carlo Rosselli, Piero Gobetti, Ernesto Rossi, Guido Calogero, Aldo Capitini, Norberto Bobbio, Ugo La Malfa e degli esponenti del vecchio ‘Partito d’azione’, che intendevano conciliare liberismo e politica sociale.
Il problema è che in Italia, a differenza di altri paesi, non c’è mai stata una vera rivoluzione liberale e progressista. Nel senso gobettiano dell’espressione. Stiamo ancora aspettandola. Cerchiamo quindi di realizzarla, con l’aiuto di quanti sono disposti a collaborare a tal fine. Non è necessario considerare la rivoluzione liberale un punto d’arrivo. Chi vuole, a sinistra, può guardare ad essa come a un obiettivo intermedio. Avrà poi tempo per pensare a ulteriori miglioramenti dell’assetto economico e sociale.
*Professore ordinario di economia politica nell’Università di Firenze.
—
Alda Merini consacrata dalla tv, abile a sfruttarla 2.11.2009
MAURIZIO CUCCHI
La scomparsa di un poeta è difficilmente oggetto di un interesse diffuso, nella società d’oggi. Così come lo è in genere, purtroppo, la sua opera. Alda Merini costituisce un’evidente eccezione, perché proprio in questi ultimi vent’anni, in tempi di ben poca presenza pubblica del poeta e della poesia, aveva saputo oltrepassare i confini del semianonimato per imporsi quasi come una star. Lo aveva fatto utilizzando in modo abilissimo il mezzo televisivo (e poi non solo quello, ovviamente), che le aveva consentito di esprimere un personaggio – se stessa – in grado di coincidere quasi perfettamente con l’idea che in genere la gente ha del poeta: bizzarro e maledetto, insolito e sfortunato, estroso ai limiti della follia (e nel suo caso anche dentro la follia), ispirato e estraneo alle convenzioni.
Alda Merini era un poeta già presente da ragazza in quella che era allora una vera società letteraria: era entrata infatti in un’antologia generazionale (Quarta generazione, del ’54) ancora giovanissima. Poi un periodo di oblìo molto lungo, quindi il successo. Che fosse una poetessa vera non c’è dubbio, ma di una specie particolare. E cioè, indisciplinata negli esiti, dove sapeva colpire con improvvise immagini vibranti e forti accensioni suggestive, ma dove anche poteva concedersi, più o meno consapevolmente, soluzioni piuttosto facili e di non meno facile ascolto. La sua scomparsa è dolorosa, come dolorosa e travagliata è stata la sua esistenza. Speriamo che l’attenzione che è stata capace di suscitare si possa ora anche rivolgere a quanto di importante e spesso messo in ombra sa realizzare la nostra poesia contemporanea.
—
Cacciari: “Non vado con Rutelli E dico basta con la politica”
“Trent’anni fa speravo con altri di poter imprimere una svolta al Pci. Poi ci ho provato con Occhetto, con il partito dei sindaci, con l’Asinello di Prodi, con la Margherita e infine con il Pd. Quante volte occorre essere sconfitti nella vita?”
Roma, 2 novembre 2009 – “Non intendo più candidarmi a nulla. Nel 2010 non farò più il sindaco di Venezia, né il deputato. Basta. Quante volte occorre essere sconfitti nella vita?”. Lo dice Massimo Cacciari (Pd) in una intervista al Corriere della Sera. “Continuerò a dire la mia – prosegue – ma non accetterò più impegni organizzativi. Ho già dato, serve realismo”.
“Trent’anni fa speravo con altri di poter imprimere una svolta al Pci. Poi ci ho provato con Occhetto, quindi con il partito dei sindaci, con l’Asinello di Prodi, con la Margherita e infine con il Pd”, ricostruisce Cacciari. “Quel che ora dice Rutelli – spiega – io l’avevo detto molto tempo prima. A chi dovrei continuarea predicare?”.
Cacciari fa sapere che non gli è stato offerto di guidare il nuovo movimento di Rutelli tuttavia precisa: “Non me ne frega niente, il potere mi fa ridere. Stimo Tabacci e a Rutelli mi lega un’affettuosa amicizia. Condivido la sua scelta ma io con l’Udc non ho nulla a che vedere, né con gli altri”.
A Bersani “auguro successo, ma sarà la cosa 2, 3 o 4 di D’Alema. E’ un dramma quel che si profila nel Pd. L’intesa col centro è inevitabile e ‘sta frittata qui, un centrosinistra da Prima Repubblica che è il vecchio disegno di D’Alema non mi interessa culturalmente. Anche se è l’unica via per sconfiggere Berlusconi”.
http://quotidianonet.ilsole24ore.com/politica/2009/11/02/255929-cacciari_vado_rutelli.shtml
—
Da goedel@fastwebnet.it per neurogreen@liste.rekombinant.org
Da Aldrovandi a Cucchi 31.10.2009
Direi che la velocità con la quale la morte del povero Cucchi è diventata notizia di rilevanza nazionale segnali un notevole differenza dai tempi della morte di Aldrovandi.
All’epoca dalla pubblicazione delle foto al riconoscimento universale che ci fosse qualcosa di sbagliato, passò moltissimo e molti si pronunciarono solo dopo la sentenza, che però evidentemente ha aperto un
varco. La sentenza Aldrovandi è stata una vittoria vera, per ribadire un convincimento già espresso.
Certo, questa volta tutto è più veloce perchè il meccanismo di propagazione in rete è diventato più veloce e più potente, ma non è solo questione di velocità o di rapporti di forza, è proprio cambiato completamente l’atteggiamento degli attori in questo genere di tristi vicende.
Tanto che anche i media di destra sono compatti nel chiedere chiarezza e i politici reagiscono addirittura in maniera bipartisan, lasciando carabinieri e guardie carcerarie a passarsi il cerino.
Sembra passata un’epoca, ma l’esperienza di Aldrovandi e nel mezzo anche quella di Sandri, ha aperto una breccia nell’omertà delle istituzioni sulle morti in carcere e fuori delle persone fermate o in custodia, per decenni morti avvolte nel mistero, un vero e proprio shift culturale, assolutamente notevole, quasi non si sono sentiti nemmeno i fanatici sostenitori delle maniere forti, che in questi casi solidarizzano con le
forze dell’ordine ™ contro il drogato, come accadde tristemente per Federico.
E se pensate che male ha fatto ai suoi genitori leggere certi insulti al figlio morto, vi verranno facilmente in mente anche la valanga d’infamie che hanno dovuto sopportare i genitori di Giuliani, queste almeno sono risparmiate ai genitori di Cucchi, qualcosa è cambiato.
Questa volta, incredibile, nemmeno i peggiori fogliacci insistono sull’accusa di spaccio per l’arrestato, molti non la citano proprio, forse per ignoranza forse no, ma è significativo che in questo caso l’approccio sia diverso anche su questi dettagli
stai a vedere che evolviamo…
—
Se la birra dà energia all’ospedale
Un caso in cui l’alcool fa bene ai malati, quello in cui la fabbricazione della birra contribuisce all’alimentazione energetica di un ospedale nel sud dello Stato del Wisconsin (USA).
Il Gundersen Lutheran Hospital di La Cross e una fabbrica di birra della città hanno, infatti, avviato recentemente un progetto comune, che ha come scopo la produzione di circa 3 milioni di chilowattora di energia l’anno (la quantità necessaria a riscaldare 300 case) coprendo così circa l’8% del fabbisogno energetico dell’ospedale.
La produzione di energia avviene grazie alla cattura del gas metano rilasciato dal birrificio durante la fermentazione dei lieviti: il gas, invece che essere combusto o rilasciato in atmosfera, come comunemente avviene, è utilizzato in un motore a gas che immette energia elettrica in rete. La quantità di energia prodotta dal motore di biogas viene quindi misurata dal fornitore di potere locale (Xcel Energy) e, infine, accreditata all’ospedale.
Un vantaggio che non riguarda solo l’ospedale, dal momento che il calore generato dal motore a gas viene anche catturato e riutilizzato per favorire il processo di fabbricazione della birra. È questo sicuramente il modo più creativo con cui il Gundersen Lutheran Hospital mira a diventare, dal punto di vista energetico, completamente indipendente entro il 2014; tra gli altri strumenti, il miglioramento dell’efficienza energetica, l’installazione di impianti per la produzione di energie rinnovabili e, soprattutto, la realizzazione di partnership con la comunità per la lavorazione e il riciclaggio dei rifiuti.
Jeff Rich, direttore esecutivo dei progetti di miglioramento dell’efficienza del Gundersen Lutheran Hospital afferma che a causa dell’aumento del costo delle prestazioni sanitarie, si sta lavorando intensamente per ridurre il costo dell’energia, sì da estendere i benefici del risparmio ai pazienti. Rileva ancora l’importanza di limitare, in una struttura ospedaliera, l’uso di energia elettrica ricavata dai carburanti fossili, se si pensa quali siano i danni alla salute che questi possono provocare.
Questo è un progetto pionieristico, dice Rich; è innovativo pensare come una struttura sanitaria possa diventare un produttore di energia. E grazie alla produzione di alcool, per di più…
Fonte: www.earth911.com
ottobre 2009
http://www.scienzaegoverno.org/n/070/070_02.htm
—
Produrre plastica dalle alghe
Secondo Frederic Scheer, amministratore delegato di Cereplast, le ricerche sulle alghe, per la produzione di plastica, stanno dando ottimi risultati e nell’arco di pochi mesi la nuova resina potrebbe essere realizzata, così da essere lanciata sul mercato entro il 2010, sostituendo il 50 per cento o più del contenuto di petrolio usato nelle resine plastiche tradizionali.
“Siamo ancora in fase di sviluppo – ha affermato Scheer – ma crediamo che questa tecnologia rivoluzionaria potrebbe portare a una significativa nuova linea di business negli anni a venire”. La ricerca Cereplast, azienda produttrice di resine plastiche a base di cereali e patate, si è orientata verso le alghe per accedere a materie prime prive di amidi, sia perché queste hanno meno impatto sulla catena alimentare, sia perché sono meno sensibili alle variazioni dei prezzi.
Ovviamente, l’ingrediente e/o il procedimento chiave per utilizzare le alghe nella produzione di resine non è stato reso noto, ma lo stesso Scheer ha affermato che le alghe potrebbero diventare una delle materie prime più importanti per la produzione di biocombustibili e di bioplastica. Le resine derivate da alghe possono essere mescolate a polipropilene o ad altre resine standard per ottenere prodotti estrusi o termofusi.
Tuttavia, affinché la produzione delle resine plastiche derivate dalle alghe abbia successo, occorrono quantitativi notevoli di alghe. E questo spiega i notevoli investimenti nel settore della produzione di alghe fatti recentemente da società quali Exxon (600 milioni di dollari nel progetto Synthetic Genomics) e British Petroleum (10 milioni di dollari nel progetto Martek Biosciences).
Fonte:www.plasticsnews.com
ottobre 2009
http://www.scienzaegoverno.org/n/070/070_03.htm
Dalle alghe anche l’illuminazione, un post di Marzo 09:
L’energia pulita di Marghera
Primo impianto italiano per l’energia dalle alghe
Link: http://www.rinnovabili.it/primo-impianto-italiano-per-lenergia-dalle-alghe-530102
Nel blog alla pagina https://adrianaemaurizio.wordpress.com/mediattivismo/mediattivismo-4/
Leggi anche: E’ possibile ottenere biocarburante dal fiato umano? 22.09.2009 (Fonte: Focus)
Qui: https://adrianaemaurizio.wordpress.com/mediattivismo/mediattivismo-21/
—
2.0, Ocse, statistiche di Tommaso Rondinella
Ora rifacciamo i conti. Il progetto Wikiprogress 31/10/2009
Il modello Wikipedia applicato ai numeri dell’economia e della società. L’Ocse lancia Wikiprogress, piattaforma globale per condividere statistiche. Se andrà bene, potrà aiutarci a ridefinire l’idea di progresso delle società
Il web 2.0 arriva anche nel mondo della statistica. Nella società dell’informazione le statistiche hanno un peso rilevante e grazie ad internet sono diventate estremamente più accessibili a tutti. Tuttavia ancora non si era sviluppato un luogo dove condividere e discutere tali informazioni. A questo dovrebbe servire Wikiprogress, il portale lanciato venerdì dall’Ocse in Corea durante il terzo forum mondiale su Statistica, Conoscenza e Politica.
Si tratta di una piattaforma globale, basata sulla tecnologia di Wikipedia, per condividere statistiche ma anche, e soprattutto, per ridefinire l’idea di progresso delle società. Wikiprogress dovrebbe infatti contenere analisi e valutazioni su tutte quelle questioni economiche, sociali e ambientali che portano a ridefinire il progresso. Secondo l’Ocse che anima questo dibattito già da qualche anno, il progresso sposta l’attenzione dal reddito al benessere. Superare il Pil quale indicatore di benessere vuol dire allora non guardare più solo alla crescita bensì al progresso, appunto.
Di questo si sta parlando ormai da tempo e sono diversi gli attori che portano avanti il superamento del Pil e la definizione di diversi obbiettivi della politica per il raggiungimento di un maggiore benessere collettivo. Oltre all’Ocse anche la Commissione Europea si sta muovendo nella stessa direzione e Sarkozy ha promosso la Commissione Stiglitz-Sen-Fitoussi che a settembre ha pubblicato il rapporto finale. Nei prossimi mesi o anni l’Ocse dovrebbe portare avanti delle ampie consultazioni nazionali per la ridefinizione degli indicatori di progresso. In Italia la discussione farà capo al Cnel, forse non l’attore più indicato visto che di queste questioni non si e` mai occupato granché. Ma soprattutto sarà una discussione istituzionale, che forse vedrà anche una partecipazione della società civile, ma nulla a che vedere con una ridefinizione del progresso che parta dal basso, dalle comunità e dai cittadini.
Invece Wikiprogress beneficerà della forza dell’intelligenza collettiva che il web 2.0 porta con sè e potrebbe diventare un interlocutore esigente dei tradizionali produttori di statistiche, che resteranno insostituibili, ma che potranno apprezzare cos’è che politici, ricercatori, esponenti della società civile ed il popolo della rete in generale sono realmente interessati a sapere.
Wikiprogress, nella migliore delle ipotesi, contribuirà a ridefinire il progresso su larga scala e a superare la visione economicista del mondo che ha fatto della crescita del Pil la panacea nonostante di fatto lo fosse per pochi. Chissà se questa crisi sia servita a far aprire gli occhi a molti o se dovremo aspettare la prossima, ancora peggiore, tra pochi anni. Secondo Angel Gurria, segretario generale dell’Ocse, la crisi è effettivamente un’opportunità per ripensare a cosa significhi progresso e per reindirizzare le nostre società su un cammino di benessere inclusivo e sostenibile. Wikiprogress dovrebbe servire a dare una risposta di questo tipo partendo un po’ più dal basso
http://www.sbilanciamoci.info/Sezioni/globi/Ora-rifacciamo-i-conti.-Il-progetto-Wikiprogress
—
ambiente, Copenhagen, Obama di Guglielmo Ragozzino
La sedia vuota di Copenhagen 29/10/2009
Perché Obama non andrà al vertice di dicembre sul riscaldamento globale? Il ruolo della crisi economica e dell’opinione pubblica americana
“Se perdiamo questa occasione per proteggere il nostro pianeta, non possiamo sperare in una seconda possibilità in futuro. Non ci sarà alcun accordo per riparare il danno che abbiamo causato. Questo è il momento per limitare e invertire il cambiamento climatico che stiamo infliggendo alle generazioni future. Se i più poveri e più vulnerabili saranno in grado di adattarsi, se le economie emergenti stanno per intraprendere percorsi di sviluppo a basso tasso di carbonio, se i popoli delle foreste stanno cercando di rallentare e fermare la deforestazione, i Paesi più ricchi devono contribuire finanziariamente”. Un mese fa, il 25 settembre, a New York , davanti all’assemblea delle Nazioni unite, il presidente degli Stati uniti Barack Obama pronunciava il suo discorso perfetto. A distanza di un mese, contrordine. Il presidente a Copenaghen non andrà più, lasciando di stucco molti osservatori. A non perdere l’occasione saranno altri, se ci saranno. Alla notizia della defezione, fatta filtrare tramite il quotidiano inglese The Times, il campo si è diviso. Gli obamiani di ferro hanno detto: fa bene a non andare; il vertice finirà certamente con un niente di fatto. Gli avversari dell’America, sempre e comunque capaci di vedere i retroscena maligni, hanno amaramente gioito: “cosa vi aspettavate? Anche lui è come gli altri, deve rispondere alle multinazionali che lo hanno eletto, quel pacifista del piffero”. Una minoranza di ambientalisti ha sospirato: “adesso sì che il vertice è diventato davvero inutile. Solo Obama avrebbe potuto dargli un senso”. Qualcuno continua a sperare che alla fine cambi idea. Gli ambientalisti, si sa, sono i più ottimisti di tutti: invece di disinteressarsene, o di guardarlo con astio, credono nel futuro e lottano per un mondo diverso e possibile.
Copenaghen deve essere una città stregata per Barack Obama; in effetti il presidente degli Stati uniti vi si reca, o, sarebbe forse meglio dire, vi è attratto, quando l’andarvi è inutile e perfino sbagliato, come nel caso del suo temerario viaggio per appoggiare la candidatura di Chicago per le Olimpiadi del 2016: la sede era discussa proprio a Copenaghen. La città danese lo respinge invece quando sarebbe suo dovere recarvisi ed egli vorrebbe farlo. Deve essere davvero un’irresistibile forza quella che si è scatenata e prevedibilmente lo terrà lontano, in dicembre, dal vertice ambientale del Pianeta. Se si aggiunge che nella settimana stessa della Conferenza delle Nazioni unite, Obama prevede di essere per un paio di giorni a Oslo, per ricevervi il premio Nobel per la pace, il quadro della magia incombente è ancora più preciso. Tanto più che Oslo, vista dagli strumenti di bordo dell’Air Force One, dista poco dalla capitale danese. L’Atlantico è largo, ma il Nord Europa è molto stretto.
Il discorso di Obama a Oslo sarà un discorso ambientalista e – si può scommettere – un discorso formidabile, di alto contenuto retorico, come quello del Cairo, in giugno, rivolto all’islam. La retorica presidenziale è davvero unica e saprà certo superare la vetta straordinaria raggiunta con le parole famose sull’etanolo: “In testa alle mie priorità c’è che la gente abbia abbastanza da mangiare. E se risulta che dobbiamo cambiare la nostra politica sull’etanolo per consentire alla gente di sfamarsi, allora questa è la strada che sceglieremo. Ma io credo anche che l’etanolo sia in definitiva uno strumento transitorio ma importante per affrontare la lunga crisi energetica. Più avanti arriveremo a produrre etanolo dalla cellulosa senza usare riserve alimentari, ma erba e schegge di legno”. Prima di tutto i bisogni elementari, poi la crisi energetica, al terzo posto tra le priorità i problemi della ricerca e dell’innovazione. E rimane il dubbio: parlava a favore o contro l’uso di etanolo per le auto?
A Oslo, il presidente Obama parlerà di ambiente, ma lo farà da lontano, fuori dalla mischia e senza impegnare il suo paese e l’amministrazione democratica a scelte e decisioni prese da altri, nel caso dalla comunità internazionale, rappresentata dall’Onu, dai suoi scienziati e diplomatici. Questo non vuol dire boicottare il vertice, dove gli Stati uniti saranno rappresentati da Todd Stern, il negoziatore di Kyoto, ma a mettere in chiaro ancora una volta che gli Usa decidono per sé all’interno, con proprie dinamiche, tra Senato e lobby, pesi e contrappesi; e poi fanno sapere il risultato agli altri. America first. Un simile atteggiamento non stimola l’Unione europea a trattare con larghezza e generosità, a “contribuire finanziariamente” come chiedeva Obama all’Onu. Inoltre rende ostili i paesi in via di sviluppo, mette sul chi vive l’astro sorgente Bric (Brasile Russia India Cina) e toglie ogni interesse ai G8 o ai G20, se si vuole leggere la stessa storia con un’altra angolazione. Il risultato di Copenaghen, un appuntamento atteso, un’occasione caricata di un eccesso di speranze, finirà per deludere molti.
Il circuito vizioso è ormai in azione. C’è chi, a quaranta giorni dall’inizio, giudica il Vertice di Copenaghen inutile se non del tutto privo di prospettive, sulla base anche del Prevertice di Bangkok deludente a tutti gli effetti. E consiglia Obama di non farsi vedere, per evitare la perdita di immagine e qualche dannoso compromesso. Sulla presenza, ormai molto in forse, di Obama non manca poi chi pensa che essendo il Vertice una carrellata fine a se stessa e del tutto senza prospettive, di esponenti politici e scientifici, si può trascurarlo. E’ vero però che ogni rinuncia influisce sulle altre e tutte insieme hanno effetto sulla prima. Nessuno vuole perdere tempo, nessuno vuole apparire come un leader da spettacolo e da passerella, o, peggio, dedito al criticabile turismo dei Summit: un leader capace di svagarsi, senza pensare ai gravi problemi del presente che urge, in ogni capitale, in ogni parlamento: nuove possibili alleanze, neri tradimenti, scandali, nomine, processi, avvenimenti sportivi, regi sponsali.
“I paesi di ogni angolo del mondo riconoscono ormai che l’offerta di energia rallenta”, dice Obama. “La domanda di energia cresce più di prima e l’uso crescente di energia mette a rischio il pianeta che lasceremo alla future generazioni. Ecco perché il mondo è ora coinvolto in una competizione pacifica per stabilire le tecnologie che prevarranno nel XXI secolo…la nazione che vince nel confronto, guiderà l’economia globale, ne sono convinto. Voglio che sia l’America”.
Il problema principale di Obama è quello di Jimmy Carter e Bill Clinton prima di lui: l’indipendenza energetica del paese. A questa principale, Obama aggiunge un’altra esigenza rilevante: ridurre le emissioni di gas climateranti, a partire dalla Co2, cercando di imporre il sistema del cap and trade, il commercio dei permessi di emissioni. Tutto ciò implica accordi difficili in parlamento, zigzagando tra commissioni, interessi statali di agricoltori, industriali, operai a rischio, banche, agenzie pubbliche.
Un primo aspetto importante e tale da orientare tutto il micromondo di Washington, di Wall Street, della California, riguarda il diverso atteggiamento del pubblico americano nei confronti del tema ambientale. Nel giro di pochi anni la preoccupazione per il riscaldamento globale si è molto ridotta, come anche la convinzione, prima molto diffusa, della sua origine in larga misura umana. C’è una spiegazione principale a questo calo di interesse, ed è l’economia. Ma ve ne sono anche altre, molto legate alla politica: dai rapporti internazionali al do ut des parlamentare. Il riscaldamento globale esce dalla top ten dei problemi per l’emergere di altre preoccupazioni vicine, la disoccupazione di massa, il crollo delle attività, del valore delle case e della borsa: la maggiore crisi economica degli ultimi ottanta anni, insomma. Di fronte al disastro dell’economia, con il suo corteo di questioni immediate, palpabili e a prima vista molto più gravi e irrimediabili, perdono terreno i disastri ambientali, sia quelli naturali, come le inondazioni e considerati per questo inevitabili; sia gli altri assai temuti, ma a scadenza futura, come il riscaldamento globale, o lontani, come lo scioglimento dei ghiacci della Groenlandia e dell’Artico, quindi immersi nelle nebbie di un futuro remoto, di un mondo distante, letto a modo loro e interpretato da novelli indovini, i metereologi, i geografi.
A fare testo è un centro di sondaggi molto conosciuto, il Pew Research Center for the People and the Press . Esso informa che interrogando il pubblico sull’effetto serra, alla domanda: “vi è una fondata prova (solid evidence) di un riscaldamento globale?” ha raccolto tra l’aprile 2008 e il settembre 2009 una riduzione drastica di sì, passati da 71 a 57 su 100, con i no saliti da 21 a 33 e i non so aumentati da 8 a 10. Lo scetticismo riguarda le persone di tutti gli orientamenti politici: risalendo nel tempo per la lettura delle risposte, risulta che i democratici scendono nettamente nel periodo 2006-2009, alla stessa domanda sul riscaldamento globale, da 93 a 86, a 83, a 75 su 100; gli indipendenti sono praticamente stabili nei primi tre anni considerati: 79, 78, 75, per poi precipitare a 53 nell’ultimo anno. I repubblicani a loro volta, salgono addirittura nel primo biennio, da 59 a 63 e poi crollano a 49 e infine a 35 su 100.(1) La caduta riguarda, con poche varianti, persone di ogni età, istruzione, regione del paese. Il pubblico è poco addentro alla discussione su come limitare per legge le emissioni e come penalizzarle e guardando dall’altro capo del binocolo, come commerciare con i permessi di emissione (cap and trade legislation). A saperne qualcosa è meno della metà della popolazione, al cui interno solo metà è favorevole a porre limiti alle emissioni di carbonio. Il pubblico lega il problema dei limiti alle emissioni a quello del prezzo di benzina ed elettricità. A questi chiari di luna sembra preferire l’inquinamento agli extra costi nei trasporti e nel riscaldamento.
L’opinione pubblica è il presidente Obama si sono influenzati a vicenda. Da una parte il presidente mostra di essere interessato a problemi identici a quelli che i cittadini apprezzano. Benzina poco costosa, automobili virtuose, energia elettrica sicura e possibilmente da fonti rinnovabili, posti di lavoro ambientali, innovazione in campo ecologico. Dall’altra i cittadini, attraverso i propri rappresentanti e senatori, entrano nell’ordine di idee di emettere meno gas nocivi, ma gradualmente. Così discutono se ridurre il carico di gas serra dell’80% entro il 2050, un anno lontano come la fantascienza; e entro il 2020, dopodomani, un po’ meno dell’Unione europea: il 17% contro il 20 di quella. Nel frattempo i 13 stati che vogliono ridurre le emissioni delle auto, sono liberi di farlo. Tanto, tutta l’America avrà presto automobili verdi: ibride, a etanolo, tutte elettriche, a metano, a Marchionne. Tutto serve, tutto va bene. Intanto, usciamo dalla crisi economica. America first. Poi si vedrà.
Nota 1: “Over the same period, there has been a comparable decline in the proportion of Americans who say global temperatures are rising as a result of human activity, such as burning fossil fuels. Just 36% say that currently, down from 47% last year. The decline in the belief in solid evidence of global warming has come across the political spectrum, but has been particularly pronounced among independents. Just 53% of independents now see solid evidence of global warming, compared with 75% who did so in April 2008. Republicans, who already were highly skeptical of the evidence of global warming, have become even more so: just 35% of Republicans now see solid evidence of rising global temperatures, down from 49% in 2008 and 62% in 2007. Fewer Democrats also express this view — 75% today compared with 83% last year”. (Fonte: Pew Research Center for the People and the Press ).
http://www.sbilanciamoci.info/Sezioni/globi/La-sedia-vuota-di-Copenhagen
—
Fallisce Cit group: è la quinta maggior bancarotta di sempre 2.11.2009
Negli Stati Uniti torna lo spettro della crisi bancaria. Dopo mesi di trattative con i creditori e di interventi governativi per salvarne il bilancio, alla fine Cit Group non ce l’ha fatta. La finanziaria indipendente specializzata nel credito alle Piccole e medie imprese, che eroga finanziamenti a oltre 2000 rifornitori che servono oltre 300.000 commercianti al dettaglio ha ufficializzato nella giornata di ieri il suo ingresso in stato di amministrazione controllata, il Chapther 11. Si tratta della quinta maggior bancarotta di sempre dopo quelle di Lehman Brothers, Washington Mutual, WorldCom e General Motors. Secondo i documenti presentati presso il tribunale fallimentare di New York, Cit aveva attività per 71 miliardi di dollari a fronte di debiti per 64,9 miliardi.
La decisione di far ricorso alla bancarotta è stata presa dal board dopo il rifiuto dei creditori di acconsentire a uno scambio debito/azioni che avrebbe permesso di ridurre il passivo di 5,7 miliardi. Grazie al ricorso all’amministrazione controllata, il gruppo spera ora di ridurre il passivo di circa 10 miliardi di dollari e di riuscire a emergere dalla bancarotta nell’arco di pochi mesi. Come effetto del ricorso alla bancarotta, il governo perde i 2,3 miliardi che aveva fornito al gruppo alla fine dello scorso anno in cambio di azioni privilegiate.
Ma il timore maggiore è che la bancarotta di Cit possa ostacolare la capacità di rifinanziamento dei piccoli e medi commercianti nonostante le parole rassicuranti dell’amministratore delegato Jeffrey Peek secondo cui il passaggio in un’amministrazione controllata pre-confezionata «permetterà a Cit di continuare a fornire credito alle piccole e medie aziende». Secondo gli analisti la bancarotta di Cit giunge per fortuna in un momento in cui i negozianti hanno già provveduto a rifornire i propri esercizi in vista della grande stagione dello shopping natalizio ma eventuali riduzioni del credito erogato da Cit rischiano di mettere a rischio i riordini dei beni più richiesti creando strozzature a livello di offerta e soprattutto di impattare gli ordinativi per le vendite di primavera.
Nel corso degli ultimi mesi, tuttavia, Cit aveva già ridotto drasticamente le proprie attività di prestito erogando nel primo semestre 2009 solo 4,4 miliardi di dollari di nuovo credito contro gli 11,3 della prima metà del 2008. Cit era stata sull’orlo del fallimento diverse volte nel corso dell’ultimo anno e la bancarotta era apparsa pressoché inevitabile a luglio, salvo poi riuscire a salvarsi con un ultimo colpo di reni e il sostegno dell’amministrazione Omaba che teme ripercussioni sul mondo delle pmi. La scorsa settimana Cit aveva ricevuto una promessa di nuovi crediti per 4,5 miliardi dai suoi creditori, aveva raggiunto un accordo con Goldman Sachs per ridurre i pagamenti sul debito e ottenuto una linea di finanziamento da 1 miliardo da Carl Icahn. Ma l’ultimo ostacolo è risultato fatale: i bondholders hanno detto no a una nuova offerta ritenuta troppo onerosa e hanno preferito giocarsela davanti al giudice fallimentare.
Saranno glii obbligazionisti, con ogni probabilità, ad uscirne meglio da questa storia. Le previsioni sono di un rimborso pari al 70% sul valore del bond, con l’aggiunta di azioni della nuova società. Chi ci rimetterà di più sono gli azionisti (per cui non dovrebbe arrivare alcun rimborso) e i contribuenti americani, visto che i 2,33 miliardi di dollari di aiuti del programma Tarp non potranno essere recuperati.
—
Diana Blefari si è impiccata in cella, sola da sola 1.11.2009
di Doriana Goracci
L’avevano detto in molti che prima o poi sarebbe successo, l’aveva detto forse anche lei che non voleva vivere più:” La donna si è impiccata ieri sera, attorno alle 22, 30, utilizzando lenzuola tagliate e annodate. Secondo quanto si è appreso era in cella da sola, detenuta nel reparto isolamento del carcere Rebibbia femminile. Ad accorgersi quasi subito dell’accaduto sono stati gli agenti di polizia penitenziaria che avrebbero sciolto con difficoltà i nodi delle lenzuola con cui la neo brigatista si è impiccata in cella e avrebbero provato a rianimarla senza però riuscirvi”.E così la “neobrigatista ” Diana Blefari Melazzi si è impiccata nel carcere di Rebibbia a Roma: sola da sola con il suo ergastolo che nessuno gli avrebbe tolto, per avere ucciso Marco Biagi, il 19 marzo 2002, a Bologna, insieme a Nadia Desdemona Lioce e Mario Galesi.
5 punte di stella conficcate in testa, come ossessione di vita e rivoluzione, non sono da poco, se una giovane donna con altre e altri si convince che far fuori un nuovo legislatore, un vecchio politico, un ruba galline o sogni, sia giusto e necessario, possa far stare meglio sè stesse e il mondo intorno e nessuna maternità “catartica” le è valsa come terapia o abbrevio di colpa.
Il garante dei detenuti del Lazio, Angiolo Marroni dichiara che il caso di Diana Blefari era notoriamente drammatico, come anche le sue collaboratrici andavano dicendo: “Aveva dei problemi psichici, e un comportamento che in carcere preoccupa. Non aveva rapporto nè con le altre detenute nè con le mie collaboratrici. Avevo segnalato tempo fa questo suo disagio”.
L’ avvocato Caterina Calia, difensore insieme a Spigarelli di Diana Blefari, conferma: “Siamo sotto choc, abbiamo fatto tante battaglie, abbiamo cercato in tutti i modi di far riconoscere il profondo disagio di Diana Blefari Melazzi. Ora è troppo tardi”
La Corte di Cassazione e il Gup del Tribunale di Roma che avevano confermato l’ergastolo, hanno anche non riconosciuto che Diana Blefari soffrisse una grave patologia psichica e respinto ogni istanza: “Nel 2008 la brigatista in un momento di particolare tensione emotiva aggredì un agente di polizia penitenziaria. Anche in virtù di questo episodio per Blefari venne sollecitata l’ennesima perizia psichiatrica da parte della difesa. Ma il procedimento andò avanti e la brigatista per questo episodio venne rinviata a giudizio dal gup Pierfrancesco De Angelis. Il processo sarebbe dovuto cominciare il 23 novembre prossimo”.
La fine condanna se l’ è data da sola, come la fine, da tempo, della sua e altrui esistenza. Chissà che fine hanno fatto quelle maschere grotteschedi Berlusconi e Chirac, rinvenute nel covo di via Montecuccoli, era dicembre del 2003.
Credo che con Diana siano 60 i suicidi in carcere nel 2009. Dal sito di ristretti.it.
http://www.reset-italia.net/2009/11/01/diana-blefari-si-e-impiccata-in-cella-sola-da-sola/
—
Posto la rassegna stampa completa di http://www.caffeeuropa.it/ del 03.11.2009
“Virus A, timori per i bambini” è il titolo di apertura del Corriere della Sera. “Altri due piccoli morti. Ancora vittime a Napoli, la città più colpita dalla nuova influenza Ma Fazio: rischi limitati, non affollate gli ospedali”. A centro pagina la vicenda Marrazzo: “Pagavo anche per la droga. L’ex governatore interrogato per tre ore. Lo ha accompagnato la moglie. Marrazzo ai pm: non sono mai stato ricattato”.
La Repubblica: “Virus A, già diciassette morti. Record di decessi a Napoli, in città cresce la paura. Il governo: ‘In Europa altri Paesi stanno peggio, vaccinate le donne incinte’. Tra le vittime un altro bambino. Fazio: non intasate gli ospedali”. A centro pagina Marrazzo: “Quei soldi per pagare la cocaina. L’ex governatore interrogato per tre ore dai pm. ‘Mai stato ricattato’. Oggi tocca ai carabinieri arrestati’”.
Libero: “Marrazzo pippava. La moglie lo accompagna dai pm. Non è indagato. L’ex governatore del Lazio interrogato per due ore confessa: ‘Non solo sesso col trans, i soldi servivano anche per la coca”. In evidenza anche una intervista ad Alfonso Signorini, direttore di Chi in cui si parla del filmato con Marrazzo, del premier e delle accuse de La Repubblica, che accusa Signorini “di aver tenuto una copia de lvideo del governatore per ricattarlo”.
Anche su Il Giornale si legge: “Cocaina, Marrazzo confessa. Interrogato per due ore dai pm, il governatore ammette: ‘I soldi servivano anche per la droga oltre che per le prestazioni sessuali”. Ma Nega il ricatto: “Quel blitz dei carabinieri era una rapina”.
A centro pagina: “L’influenza è killer? Mettetevi d’accordo.Troppe informazioni contradditorie, parli solo Fazio. Ieri tre morti, c’è anche una bimba di 11 anni”.
La Stampa: “L’influenza fa paura, assalto agli ospedali. Fazio: tutto sotto controllo, non assediate i pronto soccorso. Altri quattro morti, c’è anche una bambina. Il totale sale a 16 ma è sotto la media europea”. A parlare del virus è in prima pagina il professor Umberto Veronesi: “Niente panico, il virus è raramente letale”. In evidenza sulla prima anche la politica: “Berlusconi: siamo pronti a dialogare sulle riforme soltanto se il Pd cambi. ‘Quando Bersani modificherà la linea del partito, il più contento sarò io’. E intanto fissa un incontro con Casini”. Da segnalare anche l’editoriale del quotidiano torinese, dedicato alla condizione delle carceri e alla “ipocrisia bipartisan” di Pdl e Pd su questo argomento.
Il Foglio: “Patto tra Fini e il Cav sulla cittadinanza, non ancora sulla giustizia. Finiani e berlusconiani lavoreranno assieme per emendare la legge Granata, la Lega non si intromette”. Il quotidiano parla anche di un “ticket al nord per le regionali”.
Il Sole 24 Ore dedica il titolo di apertura all’economia: “Scatta il test moratoria. Nel Pdl si studia un primo sconto Irap da 1,5 miliardi”. Il veicolo parlamentare potrebbe essere il decreto sulle infrazioni europee all’esame del Parlamento. “Il Tesoro resta cauto”, aggiunge però il quotidiano di Confindustria.
Europa
Potrebbe essere Herman Van Romèuy il primo presidente dell’Unione Europea, scrive Il Sole 24 Ore. “Sul suo nome c’è l’accordo franco tedesco. Per gli Esteri in rialzo una candidatura britannica”. Il primo ministro Belga fa parte del partito democristiano fiammingo, mentre per la carica di “ministro degli esteri” “i nomi più gettonati sono quelli degli inglesi Miliband ed Ashton mentre scendono le quotazioni di D’Alema”.
Secondo La Repubblica invece l’ex premier D’Alema sarebbe “tra i favoriti”, mentre sarebbe “più lontana la candidatura di Miliband a Mister Pesc”. Ieri i laburisti inglesi avrebbero infatti “stoppato la corsa di David Miliband alla carica di ministro degli esteri europeo. Motivo? Deve rimanere a Londra a ricostruire la politica del Labour”. E’ Un passo che spianerebbe la strada a D’Alema”, secondo il quotidiano.
Appuntamento decisivo sarà lunedì prossimo, quando a Berlino i leader europei si incontreranno per celebrare il crollo del muro. Lì i colloqui informali saranno numerosi.
Il Riformista evidenzia che nella corsa europea di D’Alema c’è anche il nodo del rapporto con Israele, anche se si sottolinea come la axelta sia una “questione europea”, “non c’entra il Medio Oriente o l’America Latina”. Sul Foglio un articolo “pro Max” spiega in “almeno sette ragioni” perché augurarsi che D’Alema batta Miliband. Il Corriere dà conto delle scommesse di bookmaker inglesi: “Miliband primo, D’Alema quarto”. Il britannico appare favorito.
Secondo Il Riformista invece a sostegno di D’Alema è arrivato Romano Prodi: “Il professore intensifica i suoi contatti con le cancellerie per sponsorizzare Massimo”, dice il quotidiano.
Regionali
Verso le elezioni regionali Libero racconta le possibili candidature del Pdl nelle regioni del centro Italia: Luisa Todini in Umbria, Guido Bertolaso nelle Marche. Secondo il quotidiano ci sarebbero “sondaggi favorevoli” per i due, che potrebbero strappare le due regioni al Pd. Alla vigilia del vertice con Bossi e Fini inoltre il premier “iposta le trattative”, che dovrebbero condurre, nelle regioni del Nord, alla creazione di ticket: “Dove c’è un candidato del Cattoccio il numero due sarà nostro e vicevera”, dice il premier. Sul Corriere della Sera si legge invece che Formigoni non ha intenzione di correre in ticket con altri esponenti del centrodestra. “A meno che non si arrivi al grande spariglio: sì, percjé si rincorrono da giorni, e ieri si sono fatte più forti, le voci (soprattutto di provenienza leghista, ma accreditate anche in una parte dell’ex FI) su un possibile addio al Pirellone di Roberto Formigoni e un approdo della Lega alla regione che è da sempre in cima ai desideri del Senatùr. In teoria la mossa potrebbe essere decisiva per mantenere Galan (che non ha alcuna intenzione di mollare il suo posto) alla presidenza, con l’appoggio in questo caso dell’Udc, e a candidare un Pdl in Piemonte, sempre contando sul sostegno di Casini, che ritiene di essere decisivo in 8 o 9 regioni e che esclude categoricamente ogni alleanza in caso di regioni a guida leghista”. Sul quotidiano milnaese anche una mappa con i possibili candidati: nel Lazio quasi certa la Polverini per il Pdl, Pd incerto. In Campania per il Pdl Nicola Cosentino, per il Pd De Luca.
La Repubblica parla di “prove di intesa Pd-Udc” in alcune regioni, e racconta di un “accordo vicino su quattr candidati”. Casini e Bersani saranno alleati in Liguria, a sostegno di Burlando, e nelle Marche, con Spacca. Feeling tra Casini e D’Alema anche in Puglia, e in Calabria (per Loiero).
E poi
“La Svizzera non ci parla più” titola Il Foglio un articolo in cui si racconta la “guerra italo-elvetica”, il Tesoro italiano a caccia di capitali esportati, e la Svizzera che annuncia il blocco dei negoziati con l’Italia sulla doppia tassazione dei capitali. Anche su La Stampa un reportage racconta la “caccia aperta ai tesori nascosti all’estero”, mentre la Svizzera “è furibonda”. “Italiani ingrati, sfidarci è un errore”.
Sul Foglio due articoli raccontano la situazione in Iran, dove “la protesta sovverte le ricorrenze del regime”, perché il 4 novembre, giorno di festeggiamenti per ricordare l’assalto all’ambasciata Usa, l’opposizione si prepara a manifestare, e dove si descrivono gli arresti di blogger e dissidenti colpevoli di aver criticato il regime. In Iran ci sono almeno 10 mila scrittori online.
Si vota oggi in New Jersey e in Virginia, negli Usa, il primo “vero test”, secondo La Repubblica, per il Presidente Obama. E si vota anche per il sindaco di New York. La Virginia ha una tradizione conservatrice interrotta proprio da Obama, che fu il primo democratic oa conquistare questo Stato dai tempi di Lyndon Johnson. Molto incerta anche la situazione in New Jersey, serbatoio di voti democratici: per tre volte Obama è andato a fare campagna per il governatore uscente, il Democratico Corzine. Nel Maine si va al voto anche su due referendum: uno per la legalizzazione della marjuana terapeutica e uno indetto dai conservatori per abrogare la legge che riconosce i matrimoni omosessuali.
“Riflettori puntati sul New Jersey”, titola Il Sole 24 Ore. In questo Stato Obama condusse una partita politica “da manuale” contro il suo concorrente McCain e alla fine riuscì ad affermarsi con una maggioranza di quasi quindici punti, scrive il quotidiano. Si vota anche per le suppletive alla conquista di un seggio alla Camera nello Stato di New York, dove il seggio potrebbe andare ad un Conservatore.
—
Pirateria è semplificazione 2.11.2009
La pirateria non si combatte con la sola repressione. Internet è uno sprone, il diritto d’autore deve svecchiarsi per incoraggiare la creatività. Il contributo del Capo di Gabinetto del Ministro della Gioventù Luigi Bobbio
Roma – I commenti dei cittadini della rete non si sono mai esauriti, il dibattito ferve sul forum dedicato ai lavori del Comitato tecnico contro la Pirateria Digitale e Multimediale istituito oltre un anno fa presso la Presidenza del Consiglio dei Ministri. Ma le notizie dal versante istituzionale sono ferme ai mesi primaverili. Riprendono ora, con un contributo del Capo di Gabinetto del Ministro della Gioventù, Luigi Bobbio (AN). Punto Informatico riprende sulle sue pagine il testo del documento, il quale, spiega lo stesso On. Bobbio, rispecchia anche il pensiero del Ministro Meloni.
Internet è la più grande frattura generazionale di tutti i tempi: creatività, conoscenza, innovazione sono sulla rete, un contributo straordinario che la gioventù italiana sta portando al rinnovamento del nostro paese, per troppi anni ingessato nella sua capacità di fruire dei tanti contenuti culturali di cui dispone. Internet è dei giovani e i giovani italiani devono poterne beneficiare pienamente, a costo di rimettere in discussione vecchi equilibri e rendite di posizione.
La “Pirateria Digitale Multimediale” è una semplificazione giornalistica riduttiva dei veri termini del problema: la rete succede a tutti i media del ventesimo secolo, TV compresa.
Fenomeni di illegalità sulla rete sono marginali rispetto alla portata storica del processo e vanno comunque affrontati con gli strumenti giuridici esistenti per tutti gli ambiti della vita civile, aggiornando il diritto d’autore, non certo avventurandosi in leggi speciali e pericolose acrobazie costituzionali: investiamo piuttosto sulla capacità tecnico-istituzionale di presidiare, con le tante leggi già esistenti, l’intero processo evolutivo verso la nuova società italiana di cui i giovani sono i principali innovatori e come tali sono da tutelare e incoraggiare.
Per l’industria italiana dei media e per la sua competitività sul mercato globale, paradossalmente, il più grande ostacolo all’introduzione di nuovi modelli nel mercato dei contenuti digitali è il ritardo nella diffusione della banda larga e la scarsa alfabetizzazione informatica delle generazioni meno giovani. Questi aspetti sono preponderanti su fenomeni più eclatanti come la stessa pirateria di tipo “filesharing”. La frattura
generazionale nelle capacità e abitudini di consumo dei nuovi contenuti digitali e dell’uso di internet, particolarmente accentuata in Italia, ha reso fino ad oggi poco attraente qualsiasi investimento in nuovi modelli di offerta e distribuzione “online” che sono invece diffusi con ampia concorrenza e con grande riduzione nei costi distributivi in altri paesi dove la pirateria diminuisce.
L’industria nazionale dei contenuti deve uscire dalla logica dello status quo, investire sui talenti di internet e smettere di pensare agli aiuti statali quando i modelli di business vecchi non funzionano più.
D’altronde la storia si ripete, come quando con le prime radio e televisioni private e “pirate”, a fronte di un mercato immaturo e chiuso, gli utenti erano disposti ad ascoltare anche chi diffondeva illegalmente contenuti audio-visivi. Oggi per giunta la domanda potenziale di contenuti diffusi via internet non include per limiti infrastrutturali, come invece la diffusione delle radio e televisioni permetteva allora, l’intera popolazione italiana.
Il “digital divide”, la mancata diffusione degli accessi a internet e degli accessi in “banda larga”, penalizza ulteriormente il nostro posizionamento competitivo nel nuovo scenario internazionale dei media digitali: l’Italia è agli ultimi posti nelle classifiche mondiali.
È necessario porsi il problema della strategia, evitando battaglie di retroguardia, che ci farebbero perdere la guerra, puntando, come pure alcuni vorrebbero, al puro contenimento repressivo della rete e dei suoi utenti con un percorso costituzionalmente tortuoso e tecnicamente inattuabile o perlomeno inutile. Occorre, invece, puntare su una strategia dal lato dell’offerta, in positivo e fondata sulla concorrenza, aprendo il mercato piuttosto che restringerlo.
La parola chiave potrebbe quindi essere: “contenuti”.
In una visione di sistema non dovremmo però dimenticare, come Nazione, che la nostra condizione attuale di semplici “consumatori” di internet non può più durare. È durata anche troppo.
Lo stato deve porsi obiettivi infrastrutturali veramente strategici, costruiamo subito la “gigabit-internet” nazionale, una rete mille volte più capace delle realtà ADSL esistenti in Italia, rendiamola servizio-universale, gratuito almeno per i giovani.
La rete a banda larga può creare i posti di lavoro del futuro per liberarci dai problemi della mobilità, dell’inquinamento, ma anche delle nuove cyber-minacce che solo un paese tecnologicamente preparato può affrontare.
Internet può paradossalmente portare le nuove generazioni alla riscoperta dei saperi antichi, delle tradizioni nazionali, dei valori storici del nostro paese, de-materializzando e dis-intermediando gran parte del mondo del novecento. Ad esempio, la filiera agricola può tornare a generare valore aggiunto direttamente sulla rete con i consumatori, il patrimonio culturale italiano ridivenire protagonista internazionale, i turisti scegliere nuovamente l’Italia come prima destinazione mondiale.
Dobbiamo puntare risolutamente, anche se tardivamente, a divenire titolari di un know-how info-logistico, ossia informatico infrastrutturale, sia a livello istituzionale che imprenditoriale.
Occorre quindi investire nelle tante infrastrutture materiali e immateriali che compongono la rete e rimuovere ogni facile tentazione autolesionista di status-quo, oltre che promuovere l’alfabetizzazione digitale delle famiglie e la consapevolezza nell’uso responsabile delle giovani generazioni.
Occorre però anche aumentare la capacità di produzione dei contenuti per internet.
Lasciando la pirateria come problema dominante, dimentichiamo il problema più ampio che lo contiene e che riguarda la maturità del mercato che dovrebbe essere portata ad un livello tale da rendere la pirateria un fenomeno marginale in uno scenario di offerte oramai internazionali. La barriera linguistica sulla rete è superata.
A questo fine si potrebbero avviare la fruibilità e l’accessibilità di tutti gli odierni contenuti TV, cinematografici, letterari e musicali per internet. Fruibilità e accessibilità intese come capacità di veicolare questi contenuti con le tecniche ed il linguaggio del nuovo medium e non come semplice trasposizione di “format” pensati per i vecchi media. La RAI fino ad oggi ha destinato molte risorse alla TV tradizionale e all’infrastruttura del digitale terrestre, tecnologia ponte che esordisce ormai vecchia: queste risorse sono state comunque un investimento cospicuo per le generazioni meno informatizzate che internet lo usano poco e male.
È venuto il momento di tornare ad investire per i giovani, la RAI deve velocemente spostarsi su internet, investire prevalentemente sulle tecnologie IP, rendere fruibili sulla rete le sue teche, ad esempio con licenze del tipo “creative-commons”, alla stregua delle emittenti pubbliche europee più evolute come la BBC.
Nel ‘700 inglese gli autori non avevano alcun diritto sulle proprie opere: erano gli stampatori a detenere il diritto di copiare le opere che comperavano dagli autori, per un tempo indefinito. Non esisteva concorrenza, i prezzi erano arbitrariamente alti e la Corona poteva direttamente vietare la stampa delle opere meno gradite. Il parlamento inglese decise di intervenire nel 1710 ponendo le basi del moderno diritto d’autore anche a tutela dei diritti della società, con un titolo molto esplicito: Copyright, An Act for the Encouragement of Learning. Oggi i binari paralleli al copyright, ampiamente diffusi con internet, sembrano andare nella stessa direzione riproponendo in chiave moderna l’antico obiettivo del diritto d’autore: è il caso ad esempio dei modelli legali del “free software”, del “copyleft”, del “share-alike”, del “creative commons” il cui successo mondiale sta costringendo a una profonda rivisitazione dei tradizionali schemi editoriali e distributivi ancorati al “copyright”.
Il Senato ha approvato l’Ordine del Giorno (n. G3.174 al DDL n. 1209) per consentire la nascita di altre società di intermediazione, raccolta e ripartizione dei compensi del diritto d’autore, impegnando il Governo affinché, tra l’altro, si modifichi l’assetto della SIAE, si garantisca una pluralità di operatori e una maggiore efficienza nella gestione dei diritti d’autore e si favorisca l’ampliamento del mercato delle società di gestione collettiva dei diritti d’autore. La costituzione del “Gruppo Giuridico Misto Creative Commons – SIAE” così come il recente intervento della stessa SIAE in merito alla reinterpretazione del contenuto del vigente art. 11 del Regolamento generale SIAE in vigore dal 2007 (diritti degli autori su internet), vanno nella direzione giusta, ma ancora troppo timidamente e forse anche burocraticamente. Le reazioni critiche di pochi autori, riportate dalla stampa, dimostrano come il problema sia ancora soprattutto generazionale, a fronte della stragrande maggioranze dei giovani autori che internet lo conoscono e lo vorrebbero poter utilizzare a pieno.
La nostra P.A., sul modello di quella tedesca, dovrebbe investire principalmente nei software open-source disponibili, risparmiando e promuovendo i tantissimi giovani talenti che in Italia sono superficialmente trascurati. Paradossalmente si otterrebbe anche un esempio di come tagliare alla fonte il problema della pirateria del software, valorizzando quella straordinaria comunità scientifica della conoscenza “open” già pubblicamente disponibile.
Il rischio da evitare è quello di trovarsi in una sorta di autarchia mediatica inseguendo solo opzioni repressive nel condizionamento, spesso veicolato dalle lobby di settore, che è generato dal pur gravissimo problema della contraffazione delle opere dell’intelletto in generale e, come fattispecie, dei contenuti digitali.
Internet non è una merce che si blocca alla frontiera.
Internet ha bisogno di regole base, che in buona parte già ha, indispensabili al suo funzionamento e alla sua più ampia possibile fruibilità: d’altronde internet è anche la denominazione del protocollo tecnico che ne permette l’esistenza come infrastruttura, ovvero una serie di regole a tutela della più ampia accessibilità, progettate in ambito militare per condizioni limite come quelle di un conflitto mondiale. Gli utenti di internet, specie i più giovani, hanno bisogno di essere protetti e tutelati. Questa necessità è identica a quella garantita da qualsiasi legge e ordinamento di uno stato moderno. Quindi non esiste un bisogno di leggi speciali, ma semplicemente l’esigenza di sapersi dotare di capacità organizzativa e tecnologica atta a contrastare adeguatamente fenomeni preesistenti che oggi utilizzano anche le nuove tecnologie. In Italia questa capacità di indirizzo è molto poco diffusa. Gli organi preposti all’osservanza delle norme cogenti hanno scarse risorse quando si parla di “information compliance”. L’Italia è l’unico paese G8 a non essere dotato di un organo/autorità centrale di supervisione, controllo e garanzia sulle politiche, i diritti e le libertà fondamentali della rete.
La raccomandazione “bipartisan” del Parlamento europeo destinata al Consiglio sul rafforzamento della sicurezza e delle liberta fondamentali su Internet (Lambrinidis) dimostra come questo tema sia di stretta attualità nell’agenda politica di molti paesi.
Il Rapporto Medina Ortega sul Diritto d’Autore che voleva raccomandare all’UE l’adozione esplicita della risposta graduata (“3-strikes-and-yoùre-out”) mutuando de-facto la c.d. “dottrina Sarkozy” è stato bocciato.
Tale dottrina è stata ripresentata all’interno del “pacchetto telecom” e nuovamente bocciata dall’euro-parlamento: la risposta graduata è stata categoricamente bandita dall’Europa, benché tentativi di resuscitarla nella terza lettura del “telecoms package” siano ancora d’attualità.
Ma il Parlamento Europeo è andato oltre è ha introdotto un nuovo principio fondamentale nell’acquis comunitario: internet è diventato un diritto fondamentale per i cittadini europei.
In un mondo dove con internet si lavora, si accede ai servizi sanitari, si vive socialmente, si comunica e si esercitano le libertà civili, è oramai chiara la pericolosa acrobazia giuridica della risposta graduata.
Internet ha semmai bisogno di ulteriori garanzie: uno dei principi irrinunciabili della rete che va urgentemente sancito in via normativa è quindi quello della neutralità della rete, anche affinché l’opzione, da alcuni sostenuta, dell’intervento repressivo speciale per la rete (ossia ad opera di autorità non giurisdizionali), non sia la dannosa scorciatoia al principio della responsabilità personale degli atti compiuti, scorciatoia alternativa a rimedi più congrui nell’alveo costituzionale delle tutele giudiziarie.
È necessario impegnare la Commissione Europea affinché il nuovo “pacchetto telecom” preveda espressamente il principio della neutralità della rete. Del resto il Governo degli Stati Uniti ha già iniziato a tutelare questo principio fondamentale della rete, come anticipato dalle parole di Julius Genachowski, neo-presidente dell’autorevole Federal Communications Commission e dall’avvio dell’iniziativa”OpenInternet” per preservare una rete aperta e libera.
Il vero rischio in Italia è l’effetto di marginalizzazione del sistema paese digitale. Già oggi gli investimenti esteri nell’internet italiana e nell’industria nazionale informatica e dei media digitali sono a zero. La giurisdizione italiana su internet è limitata, e non esiste server di stato che possa essere schierato alla frontiera. Qualsiasi tentativo repressivo basato su leggi speciali per internet sopprimerebbe definitivamente l’asfittica industria italiana in cui operano prevalentemente le giovani generazioni, esponendo definitivamente il paese alle vere leggi che funzionano su internet: quelle dei “big media” esteri che hanno l’innovazione, le risorse finanziarie, umane, tecnologiche e il supporto dei rispettivi sistemi-paese.
I termini “pirateria digitale” e “pirateria multimediale” utilizzati nel Decreto istitutivo del “Comitato tecnico contro la pirateria digitale e multimediale” (CPDM) possono apparire troppo semplici e riduttivi: quali sono i veri settori coinvolti? Quali i veri comportamenti a rischio? Quali le future conseguenze per le giovani generazioni? Come ricordato di recente sul Corriere della Sera: “storicamente il riferimento normativo a cui si sono appellati i produttori di tecnologie utilizzate per copie non autorizzate era il caso Betamax. Quando la Sony nel 1975 lanciò il videoregistratore, le case cinematografiche, in particolare Universal e Disney chiesero di vietarne la vendita. Il caso arrivò nel 1984 alla Corte suprema la quale stabilì che una società non poteva essere ritenuta responsabile per aver creato una tecnologia. Nel sistema anglosassone basato sui precedenti questa decisione ha consentito a molte altre tecnologie, tra cui personal computer, masterizzatori e fotocopiatrici, di resistere agli attacchi dei proprietari dei contenuti”.
È necessario in conclusione affrontare distintamente ma in modo coordinato:
1. la protezione del diritto d’autore e i connessi limiti alla diffusione della cultura digitale prodotta soprattutto dalle nuove generazioni di autori e della nuova conoscenza condivisa: occorre riformare il ruolo della SIAE, ancora improntato a modelli antecedenti l’era della rete ed adattarlo ad un contesto di crescenti conflitti d’interesse tra autori nei nuovi media ed editori tradizionali;
2. la governance di Internet nel rispetto dei principi fondamentali della rete, che ne delimitano la funzione stessa di servizio universale e diritto fondamentale, ormai sancito dal Parlamento Europeo, ma non ancora sufficientemente riconosciuta nell’ordinamento italiano e le sue nuove grandi evoluzioni che impattano e impatteranno profondamente sulla società, l’economia e la politica. Il “Social networking” e la convergenza media/tv, con la connessa necessità di nuove politiche dei media (specialmente RAI) ci deve spingere a guardare già oltre il digitale terrestre, tecnologia ponte destinata per lo più alle generazioni meno legate ad internet. Occorre ragionare subito e solo su contenuti per internet facendo in modo che RAI già pianifichi la migrazione integrale della propria programmazione verso internet cui sarebbe già oggi tenuta, in ragione del denaro pubblico che riceve.
Se sono stati investiti fiumi di denaro per la tecnologia-ponte perché non ci si decide ad investire per le nuove generazioni che già – come ci rivelano le statistiche – guardano sempre meno la TV? L’Internet delle cose (smart chips/RFID) ci porta dall’ante-litteram dei telefonini tracciabili alla sorveglianza pervasiva e ubiqua, considerando che, tra pochi anni, tutti i nostri oggetti saranno collegati ad internet e saranno controllati da internet. Il “Behavioural advertising” (Pubblicità basata sul comportamento degli utenti), è poi la punta dell’iceberg di tecnologie molto più pervasive di spionaggio e profilazione di cui si parla poco e su cui le autorità nazionali hanno le armi spuntate. Lo stesso Garante per la Privacy non ha giurisdizione su internet.
Chi controlla? Iniziamo ad occuparcene in Italia, il Governo potrebbe dar vita ad una commissione di garanzia per i diritti di internet composta ai più alti livelli tecnologici e scientifici per gettare le basi di un presidio dei diritti fondamentali inalienabili di internet da cui iniziare ad elaborare, come primo passo, una “carta” con rango di legge. Inoltre, la Commissaria europea Reding ha recentemente auspicato l’introduzione di un responsabile europeo per la cyber-sicurezza. L’Italia dovrebbe quindi dotarsi di un organismo per la cyber-sicurezza capace di raccordarsi alle strutture già esistenti negli altri paesi europei e al futuro omologo ente europeo, per la prevenzione e la pianificazione tecnico-istituzionale di tutte le vere minacce alla sicurezza internet: dal contrasto alla criminalità organizzata, al terrorismo, alla protezione delle infrastrutture critiche nazionali. In questa sede tecnica si potrebbe finalmente affrontare con la giusta competenza e senza scorciatoie legislative il tema delle necessarie risorse e delle giuste misure di presidio e controllo, anche per la tutela della proprietà intellettuale su internet, a supporto dell’attività di contrasto che è e deve restare dei preposti organi giurisdizionali. La priorità deve essere la capacità dello stato di far fronte a tutte le nuove sfide di cyber-sicurezza, di cui la pirateria digitale è solo una parte: esigenze o opzioni di sicurezza raccomandate non possono prevalere o avere una corsia preferenziale per mere finalità economiche di gruppi d’interesse, neanche su internet. Il tema delle cifre e delle statistiche economiche associate alle varie cyber-minacce, pirateria inclusa, deve poi essere affrontato da organismi indipendenti.
Tale auspicato organismo nazionale per la cyber-sicurezza potrebbe ad esempio raccordarsi con l’ISTAT per dare all’esecutivo delle cifre attendibili e non di parte.
In conclusione, lo svolgimento di attività illegali a mezzo delle rete internet è un fenomeno direttamente proporzionale alla diffusione e capillarità della stessa, ma non è certo rapportabile con un nesso di causa-effetto. La violazione del diritto d’autore su internet è una parte dell’illegalità digitale, assieme a tante altre fattispecie di illecito amministrativo o reato penale. Qualsiasi azione di tutela legittima degli interessi e diritti degli autori ed editori, rischia, tuttavia, di sconfinare oggigiorno ampiamente nelle problematiche della “governance” e dei giusti contrappesi con la tutela dei principi fondamentali della rete.
Come già avviene nelle altre nazioni del G20 e nei paesi più sviluppati, diviene fondamentale anche per l’Italia dotarsi degli strumenti adeguati ed affrontare senza scorciatoie e nei modi opportuni i grandi temi legati alla nuova era della rete.
Il Capo di Gabinetto del Ministro della Gioventù
On. Cons. Luigi Bobbio
http://punto-informatico.it/2741430/PI/Commenti/pirateria-semplificazione.aspx
—
Rispondi