Se Berlino divorzia dalla Bce 26.03.2010
STEFANO LEPRI
Finora, la solidità dell’unione monetaria si reggeva su una consonanza di fondo tra le autorità della Germania e il vertice della Bce; non fu turbata nemmeno quando il governo rosso-verde di Schroeder nel 2002 violò le regole del Patto di stabilità.
Ora invece è Berlino a promuovere una scelta sulla Grecia che alla Bce pare insidiosa per il futuro dell’euro. Per questo nell’Eurotower di Francoforte circola una inquietudine nuova.
Il triste paradosso è che le alchimie della politica producono un comportamento destabilizzante proprio da parte del Paese la cui opinione pubblica si dichiara più interessata alla stabilità della moneta. Con l’intesa di ieri si arriva a fare male ciò che si poteva fare bene tre settimane fa, quando George Papandreou arrivò a Berlino per presentare ad Angela Merkel il suo terzo, e questa volta davvero severo, pacchetto di misure di austerità. Mentre un abbozzo di piano di intervento si era già formato in contatti riservati fra i governi nella seconda metà di gennaio.
Jean-Claude Trichet ritiene che coinvolgere il Fondo monetario internazionale sia un grave errore. Può dare al mondo l’immagine di una area euro incapace di darsi da sola il proprio equilibrio. Può perfino attirare ancor più l’attenzione dei mercati sugli Stati più deboli della compagine che condivide la stessa moneta. Non sono passate inosservate a Francoforte le parole di Zhu Min, uno dei più brillanti dirigenti cinesi (vicegovernatore della Banca centrale, nonché a Washington consigliere speciale del Fmi) secondo cui «la Grecia è solo la punta dell’iceberg».
Invano la Bce ha tentato di spiegare che non si trattava di regalare soldi ai greci (pigri e imbroglioni quanto li vogliano i giornali popolari tedeschi), ma solo di prestarglieli; che la Repubblica Federale e gli altri Stati chiamati a contribuire avrebbero perfino potuto guadagnarci, imponendo alla Grecia tassi di interesse inferiori a ciò che i mercati le chiedono (oltre il 6%), ma superiori a quelli che loro stessi spuntano (fra il 3 e il 4%). Invano si è obiettato che il Fmi, altro che castigamatti, sui deficit pubblici è assai meno severo delle regole europee.
Non erano questi i soli equivoci che nelle settimane scorse hanno confuso le menti. Solo alla messinscena della politica tedesca giovava la minaccia di nuove regole per espellere dall’euro i paesi reprobi, senza che nessuno spiegasse come questo potesse tecnicamente realizzarsi (che farebbero qualsiasi famiglia e qualsiasi impresa di un paese sottoposto a procedura di espulsione dall’euro? Sposterebbero subito i conti in banca in un altro paese euro). Si è discusso di ipotesi che non esistevano; a cominciare da una nuova modifica dei Trattati europei, che dopo l’ultima desolante esperienza tutti i governi vorrebbero evitare.
L’unica consolazione è che l’Europa non è sola; gli squilibri che non riesce a risolvere intralciano anche la ripresa economica di tutto il pianeta. Facile unirsi nel biasimo ai paesi che «vivono al di sopra dei propri mezzi», come ha fatto per alcuni anni la Grecia, per giunta truccando le carte. Ma non va bene nemmeno che un paese viva «al di sotto dei propri mezzi» come fa la Germania, ossia producendo molto più di quanto consuma.
Oltre un certo limite – lo insegna questa crisi – la corsa alla competitività internazionale gira a vuoto, riversando su un paese più denaro di quanto ne possa utilmente usare (tanto che le banche tedesche ne hanno giocato non poco sui tavoli del casinò di Wall Street). Pur se il compromesso di ieri è nato tra Francia e Germania, questo problema continuerà a dividere i due paesi maggiori dell’euro, e anche gli altri.
–
La fine della tragedia greca 26.03.2010
Luca Bonaccorsi
EUROPA. L’annuncio rivolto da Trichet, il governatore della Banca centrale europea, al Parlamento europeo è di quelli importanti: la Bce non ha alcuna intenzione di inasprire le regole per il rifinanziamento delle banche europee e, anche qualora i titoli di Stato greci fossero declassati dalle agenzie di rating, saranno comunque ammessi in garanzia per chi prende prestiti da Francoforte.
Davanti al composto Trichet, il governatore della Banca centrale europea, c’erano poco più di dieci (imbarazzati) deputati. Eppure l’annuncio che ha rivolto ieri al parlamento europeo era di quelli importanti: la Bce non ha nessuna intenzione di inasprire le regole per il rifinanziamento delle banche europee e, anche qualora i titoli di Stato greci fossero declassati dalle agenzie di rating, come minacciato tempo fa da Moody’s, saranno comunque ammessi in garanzia per chi prende prestiti da Francoforte.
Ieri è stata finalmente la giornata della ciambella “ufficiale” per la Grecia. Oltre alla banca centrale anche i governi tedesco e francese hanno annunciato un meccanismo di salvataggio per gli Stati in difficoltà. Il dibattito di questi mesi aveva visto opposti, almeno formalmente, il fronte dei duri e puri che volevano lasciare la Grecia in balia del Fondo monetario, e quelli che avevano invocato una soluzione “europea”.
La soluzione finale annunciata è molto “democristiana”. Il meccanismo di salvataggio ci sarà, e sarà composto da un mix di interventi europei, bilaterali e del Fondo.
La verità però è altrove. La Grecia il conto lo pagherà da sola, sul mercato. Gli operatori la stanno ancora punendo pesantemente con differenziali di tasso superiori ai tre punti percentuali. Ma questo è un mercato opportunista che cerca occasioni facili di profitto. E il trade più facile che c’è è farsi prestare i soldi gratis dalla Bce, comprarci titoli di Stato greci e lucrare sulla differenza.
Il mercato infatti ieri ha accolto con un mezzo sbadiglio l’annuncio del “grande accordo”.
Più reale delle trattative politiche di Bruxelles, più concrete delle posture rigoriste rivolte all’interno della Merkel (che di nascosto ordina a enti e banche pubbliche di comprare titoli greci) sono le aste che arriveranno nelle prossime settimane. Il 20 aprile Atene deve rifinanziare circa 10 miliardi di debiti. E poi altri 8,5 a metà maggio. Ma a questi spread non dovrebbe faticare più di tanto.
La fuffa politicista intratterrà per qualche giorno ancora la stampa forse. Ma la soluzione, questa volta, è arrivata dalla solitamente inefficace Bce. Almeno stavolta il povero Trichet meritava che qualcuno fosse li ad applaudire.
http://www.terranews.it/news/2010/03/la-fine-della-tragedia-greca
—
La strada sbagliata del diritto canonico 26.03.2010
GIAN ENRICO RUSCONI
Povera Chiesa. Si sente ingiustamente attaccata, diffamata, umiliata per comportamenti che essa stessa considera orribili peccati. Si sente colpevolizzata per aver cercato di arginare in silenzio il male commesso da alcuni suoi rappresentanti, per aver tentato di contenerne gli effetti nefasti. Per aver tentato di isolare i responsabili senza infierire su di essi. In breve, si sente vittima di un inatteso rigurgito antireligioso.
È questo ciò che pensano le autorità ecclesiastiche, che prendono la parola pubblicamente in queste settimane, di fronte all’inarrestabile torrente di rivelazioni sugli abusi e le violenze contro i minori, in tutte le parti del mondo. È sorprendente però che in questo contesto non sia emerso che cosa la Chiesa abbia fatto per risarcire (spiritualmente!) le vittime. Ma supponiamo che lo abbia fatto con umiltà e generosità. In silenzio.
Eppure c’è un terribile equivoco in questo comprensibile atteggiamento. Il silenzio non è più una virtù. Gli uomini di Chiesa non capiscono che hanno a che fare con un profondo mutamento della sensibilità pubblica. Con un’etica pubblica che essi – convinti di essere esperti di comunicazione sociale – non hanno saputo cogliere né tanto meno interpretare. È penoso sentir dire che i comportamenti patologici denunciati sono gli effetti del «relativismo» e del «permissivismo amorale», alludendo in particolare all’apertura verso l’omosessualità.
Nei casi di pedofilia si tratta invece di fenomeni radicati antropologicamente, che sono esaltati, se non prodotti, da particolari condizioni ambientali e istituzionali (di istituzioni più o meno chiuse) ma sono presenti nello stesso ambito familiare.
Povera Chiesa, se per reagire a tutto questo – oltre ad assicurare per il futuro assoluta inflessibilità, e chiedere scusa per lo scandalo dato ai fedeli – continuerà ad avere come criterio primario di orientamento la difesa ad oltranza delle istituzioni coinvolte. E come strumento di giudizio il codice di diritto canonico. In altre parole se continuerà a considerare la problematica che è esplosa come una questione trattabile con gli strumenti della legislazione ecclesiastica interna.
In questi mesi i non esperti di diritto canonico hanno appreso con stupore l’assoluta inadeguatezza di tale codice nella definizione del crimine (o se vogliamo, del peccato) della pedofilia e della fenomenologia connessa. Come si può punire un crimine (o un peccato) anzi individuarne l’eccezionale gravità morale, se mancano gli strumenti della sua definizione? Senza contare la posizione di insindacabile potere discrezionale e decisionale della massima autorità della Chiesa su questa tematica.
Ma – ripeto – la questione non è giuridica bensì di sensibilità morale. E qui tocchiamo un punto cruciale. A una malriposta, anche se soggettivamente benintenzionata disponibilità a non infierire (uso questo termine soltanto per capire le autorità ecclesiastiche giudicanti) contro i preti pedofili, corrisponde un atteggiamento assolutamente inadeguato verso la sessualità come tale.
L’associazione che è stata fatta nelle settimane scorse – anche a livelli alti della gerarchia – tra la questione della pedofilia, il celibato dei preti e la posizione della donna è un’associazione impropria. Ma in modo improprio appunto segnala l’enorme rilevanza della problematica della sessualità che la Chiesa cattolica non sa ancora affrontare in modo maturo.
Si tratta invece di una questione di importanza pedagogica, pubblica e civile di prima grandezza. Anche in Italia dove, più che altrove, alla Chiesa è di fatto demandato informalmente (ma quotidianamente confermato dalla classe politica al governo) il ruolo di garante ed espressione dell’etica pubblica. Dove la Chiesa con la sua rete di istituzioni di ogni ordine e grado si presenta come il modello educativo per eccellenza. Il fatto che sinora in Italia non si sia verificato (nei fatti o nelle denunce – poco importa) nulla di paragonabile a quanto è accaduto in Irlanda, negli Stati Uniti o nelle vicine Germania e Austria, non è un buon motivo per assumere un atteggiamento tra il vittimistico e il risentito.
In Germania il governo ha preso la coraggiosa iniziativa di riconoscere l’esistenza di un’emergenza pedagogica il cui decorso non può essere lasciato agli scoop mediatici, alle contestazioni contro il Papa o alle transazioni private tra vittime, avvocati e istituzioni coinvolte. Si è davanti a una situazione che esige la piena e leale collaborazione dell’istituzione ecclesiale con la magistratura e con le autorità scolastiche. Il governo ha incaricato collegialmente tre delle sue ministre (Educazione, Famiglia, Giustizia) a gestire l’operazione.
Non oso pensare a un’iniziativa analoga nel nostro Paese. Eppure è anche così che si misura la maturità o l’immaturità di una società civile.
Non so come la gerarchia della Chiesa si comporterà nelle prossime settimane soprattutto se l’ondata delle denunce non dovesse diminuire. Il coinvolgimento diretto di alcune alte personalità in alcuni episodi passati, a motivo del loro ruolo d’autorità allora svolto, solleva la questione della insindacabilità e della discrezionalità assoluta dell’autorità ecclesiastica, ricordata sopra parlando del codice di diritto canonico. Invece soltanto la piena trasparenza dei processi decisionali e l’approfondimento radicale della tematica della sessualità sarebbero la risposta adeguata – almeno per il futuro – a molte obiezioni. Ma una Chiesa che ha paura del fantasma del Concilio Vaticano II ha la forza di fare questa piccola rivoluzione?
—
Nanoparticelle all’assalto del cancro 25.03.2010
Ricercatori testano un sistema di contrasto alle cellule tumorali. I primi risultati su soggetti umani sono un successo: ma molto rimane ancora da verificare per accertare l’effettiva bontà della tecnologia
Roma – Sviluppando idee di ingegneria genetica che valsero, quattro anni fa, il nobel ai loro ideatori, ricercatori del California Institute of Technology di Pasadena hanno per la prima volta testato una tecnica di inibizione della produzione di proteine che promette di rivoluzionare la medicina terapeutica. A cominciare dal cancro, obiettivo che nel lavoro di Mark Davis e colleghi (pubblicato su Nature) è stato attaccato con successo da nanoparticelle non più grandi di 70 nanometri.
I nanobot in questione sono stati introdotti nel corpo di 15 pazienti ammalati di melanoma (cancro della pelle), con lo scopo ben preciso di trasportare alcuni frammenti di RNA nei nuclei delle cellule tumorali grazie alla tecnica nota come RNA interference. Ideata dagli americani Andrew Fire e Craig C. Mello (poi vincitori del Nobel alla medicina nel 2006), la tecnica è in grado di interferire e spegnere un particolare elemento funzionale del codice genetico permettendo di modificare a piacimento il funzionamento delle cellule.
Molti sono stati i tentativi di applicare la RNA interference alla cura delle patologie nell’uomo, e i nanobot sviluppati dal team di Mark Davis rappresentano il primo, importante successo in tal senso. Le particelle nanometriche sono composte da due polimeri in aggiunta a una proteina che permette loro di legarsi ai recettori presenti sulle cellule regredite allo stato canceroso.
Il successo del test si misura nel fatto che le nanoparticelle sono state somministrate ai pazienti e hanno percorso il sistema circolatorio fino a raggiungere – come verificato da una successiva biopsia – le cellule del cancro, penetrare nel nucleo e disattivare la produzione di proteine da parte del gene RRM2 (elemento chiave della moltiplicazione cellulare nel cancro). “Si sono introdotte, hanno evaso il sistema immunitario, hanno rilasciato l’RNA e i componenti disassemblati sono usciti” ha commentato Davis.
I nanobot hanno fatto insomma un lavoro pulito, che non ha sin qui fatto registrare particolari controindicazioni per la salute dei pazienti: e, cosa altrettanto importante, più ne sono stati introdotti nel corpo maggiore è stata la loro presenza all’interno del tumore.
La comunità scientifica guarda con interesse alla ricerca di Pasadena ma avverte: molto rimane ancora da fare e occorre valutare in maniera più approfondita (e su un numero maggiore di pazienti) gli effetti complessivi dell’utilizzo di nanoparticelle anti-tumorali. In attesa di ulteriori conferme future, a ogni modo, il biologo molecolare della Rockefeller University di New York, Thomas Tuschl, definisce “emozionante” il fatto che “tali nanoparticelle in schemi di dosaggio multipli possano raggiungere il tessuto e apparentemente avere effetti misurabili”.
Alfonso Maruccia
http://punto-informatico.it/2841178/PI/News/nanoparticelle-all-assalto-del-cancro.aspx
—
La prima stanza al mondo per i ‘bambini farfalla’ 25.03.2010
Una stanza di degenza ipertecnologica per accogliere i fragili ‘bambini farfalla‘.
La struttura, l’unica al mondo pensata e realizzata a misura dei pazienti affetti da Epidermolisi Bollosa Ereditaria, è stata inaugurata a Roma all’Ospedale pediatrico Bambino Gesù, punto di riferimento a livello internazionale per la ricerca e la cura di bimbi e adolescenti.
Per Epidermolisi Bollosa Ereditaria si intende un gruppo di malattie genetiche rare che in Italia colpisce circa 1.100 persone, a fronte dei 500mila casi registrati a livello mondiale.
Consiste in una fragilità della cute e delle mucose con la comparsa di bolle in seguito a traumi anche minimi.
Pur trattandosi di una malattia cutanea, il danno può coinvolgere altri organi e apparati causando disfunzioni anche gravi e può essere letale in epoca neonatale o in età giovanile.
Dalla forma semplice a quelle più complesse, la patologia incide pesantemente sulla qualità della vita dei piccoli che, fragili come ali di una farfalla, sono costretti a chiedere assistenza per svolgere anche la più semplice delle attività quotidiane e a fare i conti, giorno dopo giorno, con medicazioni e bendaggi, terapie per combattere il pericolo di infezione delle ferite sempre aperte o il rischio di insorgenza di tumori della pelle.
Per la cura dei bambini affetti da Epidermolisi Bollosa, il Bambino Gesù, con il sostegno dell’associazione Debra Italia Onlus, ha realizzato uno spazio di degenza con caratteristiche tecnologiche uniche per dare ai pazienti il massimo di autonomia durante i periodi di degenza.
Grazie agli interruttori con fotocellula (per porte, luce, acqua, carta), vasca da bagno con sportello, culla neonatale e letto dotato di materassi antidecubito, lenzuola di seta e sostanze disinfettanti, i piccoli pazienti sono in grado di entrare e uscire dai locali destinati alla cura, di utilizzare gli apparecchi sanitari o semplicemente di accendere la luce in sicurezza.
L’assistenza, la cura e le terapie sono affidate a personale infermieristico specializzato e formato con corsi ad hoc promossi dal Bambino Gesù e con periodi di formazione all’estero in altri Centri di riferimento e a un team multidisciplinare di medici/specialisti dedicati (dermatologi, neonatologi, anestesisti, chirurghi, psicologi, etc.) che coordinano tutti i bisogni del bambino.
Sul fronte della ricerca scientifica l’Ospedale Pediatrico Bambino Gesu’ ha firmato due convenzioni: la prima con l’Istituto Dermopatico dell’Immacolata (IDI), in particolare con il Laboratorio di Biologia Molecolare, per l’identificazione della mutazione genica e per la diagnosi prenatale per chi lo richieda; la seconda con il Centro di Medicina Rigenerativa dell’Università di Modena e Reggio Emilia per avviare studi e ricerche mirati alla terapia genica.
—
Vita da marinaio in un mare d’amianto 25.03.2010
Pietro Serarcangeli*
L’amianto, al primo incontro, sembra innocuo. Nessuno ne sapeva nulla. Era in ogni dove, fasciava ogni tubo grande e piccolo, anche le cucine erano parte del suo territorio. Sottoposto a vibrazioni violente, specie in navigazione, si sfaldava e, l’impianto di ventilazione nave faceva il resto: lo distribuiva in ogni angolo
“Quando sono certo di essere dalla parte della ragione non ho paura di sfidare e combattere Golia”.
Mi sono arruolato in Marina a 16 anni quale volontario di carriera. Dopo aver frequentato il primo corso di un anno alla Maddalena, presso le scuole Domenico Bastianini con la qualifica assegnata di Tecnico di Macchine/Meccanico, fui imbarcato sulla mia prima nave militare: il Castore, una fregata antisommergibile.
Vi rimasi per sei lunghi anni e fu un tempo durissimo per me, vista la giovane età.
L’amianto, al primo incontro, sembra innocuo. Nessuno ne sapeva nulla. Era in ogni dove, fasciava ogni tubo grande e piccolo, anche le cucine erano parte del suo territorio. Sottoposto a vibrazioni violente, specie in navigazione, si sfaldava e, l’impianto di ventilazione nave faceva il resto: lo distribuiva in ogni angolo.
Ma non eravamo consapevoli del pericolo che correvamo.
Dopo sei lunghi anni tornai a Maddalena per frequentare un altro anno di corso che prevedeva il programma del 4 e 5 anno del Nautico. Fui promosso e mi classificai secondo su 272 allievi.
Mi fu data l’opportunità di scegliere la destinazione e così optai per l’Andrea Doria, un grande incrociatore di nuova costruzione.
Imbarcai nel 1973 e sbarcai nel 1979.Anche sul Doria l’amianto era in ogni posto.
Facendo manutenzione ai macchinari, ricordo perfettamente: dovevamo eliminare il rivestimento di amianto che, così si sgretolava producendo una polverina bluastra che respiravamo come fosse innocua e senza alcuna protezione.
Finita la manutenzione si provvedeva a mettere su un altro rivestimento di amianto.
Cosa avremmo fatto se avessimo saputo del rischio che correvamo? Il tempo passa e dopo altri imbarchi e altre destinazioni eravamo arrivati agli anni 80.Nel 1985 mi trovavo a bordo dello Zeffiro, altra fregata di ultima generazione, altro amianto ovunque ma, qualcosa, era cambiato: si cominciava a parlare del pericolo amianto.
Decisi di andarmene, e presentai domanda di dimissioni ben tre volte, e per tre volte mi fu respinta.Fui chiamato a Roma presso il Ministero della Difesa.Mi accolse un ammiraglio, che mi trattenne nel suo ufficio per due ore: voleva sapere perché volessi andarmene, lasciare il servizio attivo. Alla fine, visto il mio atteggiamento deciso, mi offrì la possibilità , qualora fossi tornato sui miei passi e avessi rinunciato al congedo, di destinarmi presso l’International Logistic Control Office in Pennsylvania, Philadelphia USA.
Dopo un mese diedi la risposta e accettai: la destinazione in America mi offriva una opportunità di guadagno che non avrei mai più avuto. Passai negli USA gli ultimi 5 anni della mia permanenza in Marina.Rientrai in Italia e, dopo le formalità di rito, mi congedai. Iniziai un’altra vita ma era tardi: l’amianto mi aveva marchiato a fuoco e, successivi controlli medici che dopo qualche anno presi ad eseguire, a mie spese, confermarono: polmoni con asbestosi, l’anticamera dell’inferno.
Per quanto concerne le domande che moltissimi militari hanno presentato all’INAIL a seguito di una circolare emanata dal Ministero della Difesa che dava come termine ultimo utile per la presentazione delle stesse il 15 giugno 2005, nulla si è più saputo.
Proprio in questi giorni ho inviato, tramite raccomandata, un sollecito all’INAIL di La Spezia, chiedendo di conoscere lo status burocratico della mia domanda. Vedremo se e cosa risponderanno. Le domande sono intese ad ottenere, eventualmente e a similitudine dei lavoratori civili, i benefici di legge (?) previsti per coloro che sono stati esposti all’amianto in modo continuativo per oltre dieci anni (e chi c’è¨ stato nove anni cosa fa?)
Questa, a grandi linee, la mia permanenza in Marina. Oggi cerco giustizia e mi batto perché, ex militari e civili, nelle mie condizioni abbiano i loro diritti riconosciuti.
*http://sharon774-combattoperideboli.blogspot.com/
http://www.aprileonline.info/notizia.php?id=14496
—
La scuola ai tempi delle destre
Red 25.03.2010
Tagli di governo ed egoismi padani: dopo la notizia dei bimbi tenuti a pane acqua nella mensa della scuola materna ed elementare di Montecchio Maggiore, arriva oggi quella della gita scolastica differenziata per censo in un istituto di Pordenone
“Dopo la notizia dei bimbi tenuti a pane acqua nella mensa della scuola materna ed elementare di Montecchio Maggiore, arriva oggi quella della gita scolastica differenziata per censo in un istituto di Pordenone. Dove andrà a finire la scuola pubblica in questa triste epoca della Destra, quando tra tagli di governo ed egoismi padani, si sta perdendo di vista il suo valore fondativo, stabilito dalla Costituzione, cioè la creazione di condizioni di uguale cittadinanza?. La senatrice del Pd Vittoria Franco, ha annunciato la presentazione di un’interrogazione parlamentare al ministro dell’Istruzione Maria Stella Gelmini su queste due vicende.
“E’ chiaro che la mensa, così come le gite all’estero – spiega Vittoria Franco – sono servizi offerti da una scuola più moderna che in passato. Ma si dovrebbe fare attenzione a poter coinvolgere tutti i bambini e i ragazzi, attraverso sostegni economici e borse di studio per le famiglie che non ce la fanno. Questo è il valore educativo della scuola pubblica, che dovrebbe favorire la mobilità sociale. La verità, purtroppo, è che con questa Destra al governo ci troviamo di fronte a una scuola pubblica impoverita sia di valori che di risorse, dove prendono piede i più gretti egoismi, una scuola che discrimina invece che includere. Dove sono finiti slogan come ‘non uno di meno’ e ‘pari opportunità per tutti’? Gelmini e il governo Berlusconi hanno abbassato l’obbligo attraverso l’apprendistato, hanno tagliato risorse e docenti, impoverito il tempo pieno e ridotto il sostegno. Poi la ministra – conclude ironica Vittoria Franco – richiama i presidi che chiedono i soldi per la carta igienica ai genitori (il riferimento è ad una intervista rilasciata ieri dal ministro Gelmini, ndr), ma se lo Stato non investe soldi, cosa devono fare, chiudere i bagni?”. Nota personale: noi ai nostri bambini, per la scuola, non abbiamo solo da acquistare la carta igienica, ma davvero di tutto, partendo dalle necessità igieniche alla cancelleria e ai suoi annessi e connessi, ed è un problema comune ormai alla maggior parte delle scuole…io avevo proposto alla direttrice della scuola che frequentano le nostre figlie che avremmo potuto destinare il 5 per mille al nostro Comune, a condizione che li rendesse disponibili per sopperire alle carenze economiche dell’Istituto (risposta: picche (!?!), adducendo questioni di responsabilità e competenze).
Già, perché far credere che una task force ministeriale curerà le sofferenze dei fondi scolastici erogando dieci milioni di euro implica una vocazione umoristica: i soldi che il ministero non ha finora pagato alle scuole, soprattutto per supplenze brevi ed esami di stato, è cento volte superiore a quanto ipotizzato dal ministro: non dieci milioni, ma un miliardo di euro.
“I soli istituti superiori della provincia di Novara devono avere dal ministero più di due milioni di euro”, sottolinea . Giovanni Bachelet, responsabile Forum Politiche dell’Istruzione del Pd.
In queste condizioni tirare le orecchie ai dirigenti scolastici e invitarli a non chiedere soldi alle famiglie, quando per colpa delle inadempienze del ministro stesso i dirigenti sono rimasti in braghe di tela e gli studenti si devono portare la carta igienica da casa, è una beffa atroce che si ritorcerà elettoralmente “contro chi ha avuto il coraggio di prendersi gioco degli uomini e delle donne che malgrado tutto, come ben sanno studenti e famiglie, tengono in piedi con le unghie e coi denti la nostra scuola pubblica”.
http://www.aprileonline.info/notizia.php?id=14495
---
L’atomo si ricicla 20.02.2010
Oggi qui, domani lì
Nel 1964 un fisico quantistico di nome John Steward Bell riferì di un esperimento dalle implicazioni sconcertanti. Stando ai datti da lui raccolti, se due particelle sono state in contatto almeno una volta rimarranno collegate, e saranno in grado di influenzarsi anche spostandosi agli estremi opposti dell’universo. Il teorema di Bell afferma che un atomo di una molecola “sa” cosa sta facendo un altro atomo con il quale era stato accoppiato. Questo “sapere” non fa assegnamento su forme di energia come luce, suono o gravità, che diminuiscono con la distanza.
In altre parole, la forma di energia alla base di questi fenomeni, non è localizzata nel tempo o nello spazio e agisce attraverso enormi distanze. Le implicazioni del teorema di Bell sconvolgono il nostro mondo apparentemente solido fatto di persone, alberi, case, cagnolini, enunciando una realtà invece composta da atomi vorticanti in modo perpetuo.
Potremmo paragonare il corpo umano ad un cielo notturno, nel quale ogni astro visibile è simile a un atomo. Gran parte del cielo così come la maggior parte dei corpi e di tutte le cose è fatta di spazi vuoti. Gli atomi schizzano costantemente dentro e fuori da questi spazi: una particella atomica che faceva parte del nostro cervello la settimana scorsa, perciò, domani potrebbe benissimo trovarsi nello stomaco di una gallina. Le molecole dell’ala di una mosca potrebbero riciclarsi fino a diventare la nostra materia ossea. Gli atomi che un tempo facevano parte di Mahatma Gandhi, Madre Teresa, Gesù Cristo, Adolf Hitler e Attila, stanno ancora circolando dentro e fuori di noi. Se il teorema di Bell è corretto, se è vero cioè che a un qualche livello gli atomi sono perennemente in collegamento, allora in qualche modo siamo tutti collegati.
Ovviamente la scienza “ufficiale” continua a discutere sulla validità di questo teorema e sta cercando di dare altre spiegazioni ai risultati della ricerca di Bell. La scienza si muove lentamente rispetto alle intuizioni. Forse ci vorrà del tempo perchè la scienza “ufficiale” possa spiegare e accettare i fenomeni che da tale teorema risultano facilmente comprensibili, ma la cosa importante resta che l’intuizione iniziale c’è stata e che noi tutti possiamo sintonizzarci con essa e vivere di conseguenza consapevoli di appartenerci l’un l’altro in… moto perpetuo.
Valeria Marracino – psicoterapeuta – Redazione Promiseland.it
http://www.promiseland.it/view.php?id=3478
—
La polizia ha sequestrato le carriole e identificato i partecipanti
Ma gli organizzatori hanno aggirato l’ostacolo: sfilano in duecento 28.03.2010
L’Aquila, torna il popolo delle carriole
E trova la Digos: “Manifestazione vietata”
DI GIUSEPPE CAPORALE
L’AQUILA – “OGGETTO: Verbale di sequestro di una carriola, in pessimo stato di conservazione, con contenitore in ferro di colore blu, con legatura in ferro sotto il contenitore, e cerchio ruota di colore viola, e di due pale con manico in legno a carico di…”. Questo il testo del verbale di sequestro della Digos che oggi è intervenuta contro il ‘popolo delle carriole’ tornato, come già annunciato dai comitati cittadini, nel centro storico dell’Aquila. In circa duecento persone sono arrivati nonostante il divieto della prefettura motivato dal silenzio elettorale.
Il sequestro della carriole da parte delle forze dell’ordine è stato immediato. Una è stata tolta perfino dalle mani di un bambino dieci anni, Andrea. In tutto, gli uomini della Digos ne hanno sequestrate un quindicina per metterle dentro i furgoni. Venti carriole sono state solo respinte, non ammesse, e sono restate fuori dal centro storico.
Era un’eventualità attesa e gli organizzatori hanno attuato una strategia diversiva. Sono entrati lo stesso al centro storico come normali cittadini, e una volta entrati hanno preso alcune carriole che avevano nascosto precentemente dentro un tendone a piazza Duomo.
Poi hanno formato un corteo sulla via principale che si è diretto verso piazza Nove Martiri. La Digos è rimasta a guardare, ma ha provveduto a identificare tutti i manifestanti. La piazza è invasa dalle macerie e il popolo della carriole si è messo al lavoro sotto la lente di decine di telecamere prima di riunirsi in assemblea. Anche questa, vietata. “La Digos ha preso i nomi di decine di noi – dicono i manifestanti -. Vogliono denunciarci. Intimidirci. Noi ci autodenunceremo tutti come portatori delle carriole…”.
http://www.repubblica.it/cronaca/2010/03/28/news/carriole-sequestro-2960052/
—
Manuel Castells. Lotte per il potere di plasmare la mente
Autore: Vecchi, Benedetto
Un po’ di speranza l’autore dell’”Era dell’informazione” la vede nelli sciame della politica insorgente. Speriamo con lui. Il manifesto, 28 marzo 2010
Manuel Castells è uno studioso tanto rigoroso, quanto riottoso a concedere interviste. Preferisce che le sue analisi e riflessioni possono essere ponderate da chi le legge e che vengano misurate sulla «lunga durata» dei fenomeni che studia. La sua trilogia sull’Era dell’informazione (Università Bocconi editore) ha avuto una lunga gestazione – dieci anni – e Castells si è sempre sottratto a chi gli chiedeva se fosse una analisi sul capitalismo digitale, perché ritiene che il «cambio di paradigma» che ha cercato di delineare non riguardava un tipo particolare di società, bensì la concezione stessa di società. Al punto che il terzo volume era interamente dedicato a quelle realtà – la Russia postsovietica e la Cina postmaoista – che lo studioso catalano ha sempre considerato né socialiste, né capitaliste. E anche quando ha analizzato a fondo la struttura tecnosociale alla base del cosiddetto «informazionalismo», cioè Internet, ha sempre messo in guardia sia dai facili entusiasmi che giudicano la Rete una sorta di terra promessa del libero mercato, o all’opposto di una società non mercantile, che quella visione apocalittica che vede il web una bomba lanciata contro il concetto di società, e perché alimenta un individualismo così radicale da sfiorare l’autismo sociale. Ma è sicuramente nel suo ultimo volume, quello dedicato a Comunicazione e potere, che Manuel Castells ha provato a definire un quadro di come la Rete abbia modificato nel profondo le strutture di potere nelle società contemporanee, al punto da costituire una lettura obbligata per mettere a fuoco il legame, contradditorio, tra azione politica, media e comunicazione digitale.
Nel suo libro «Internet Galaxy» nella Rete è molto forte un’etica hacker che ha lo stesso ruolo di quella protestante agli albori del capitalismo, cioè è propedeutica allo sviluppo di un nuovo tipo di società, da lei definita come informazionale. Può spiegare da cosa è caratterizzata l’etica hacker?
Il concetto di etica hacker è stato sviluppato dallo studioso finlandese Pekka Himanen. In primo luogo, il termine hacker non va confuso con quello di crackers, che sono solo dei criminali cybernetici. L’etica hacker è appropriata per comprendere una delle caratteristiche del sistema tecnosociale che chiamo «informazionale», e questo non coincide necessariamente con il capitalismo. L’informazionalismo è infatti una realtà economica, sociale, politica, tecnica basata sulla costante innovazione delle tecnologie dell’informazione e della comunicazione e può svilupparsi in una realtà capitalista, come in realtà non capitaliste. Ciò che abbiamo visto manifestarsi in questi ultimi decenni è l’affermarsi di un settore produttivo, chiamato spesso tecnologie dell’informazione, che è diventato nel tempo centrale nella produzione della ricchezza e del potere nelle nostre società.
L’informazionalismo ha sì la sua base nelle macchine digitali, ma è molto più che un network di computer perché considera l’innovazione l’obiettivo prioritario. L’etica hacker è quindi quel sistema di valori che premia la creatività dei singoli e che costituisce l’elemento discriminante per giudicare il proprio lavoro soddisfacente. In altri termini, l’etica hacker ritiene l’espressione della creatività come un fattore fondamentale per la vita dei singoli e ha lo stesso ruolo che ha avuto il «fare i soldi» nel capitalismo. Un hacker valuta la creazione tecnologica o in altri campi come la fonte della proprio piacere e del prestigio nel proprio gruppo di riferimento, cioè gli altri hackers.
Nella ricerca dedicata alla comunicazione mobile lei sottolinea il ruolo sempre più pervasivo dei telefoni cellulari. Siamo cioè totalmente immersi in un habitat tecnologico che cambia i processi di formazione delle identità collettive. Nel libro sul «Potere delle identità» lei infatti afferma che le identità sono diventate un affaire politico molto serio. Come spiega il fatto che Internet provoca sia una uniformità di comportamenti e, al tempo stesso, una proliferazione di identità parziali?
Non credo che Internet produca uniformità dei comportamenti. Sono infatti i mass media tradizionali che producono uniformità dei comportamenti e delle identità sociali. Ma Internet non è un media verticale dove il messaggio si diffonde dall’alto (la radio, la televisione, i quotidiani) al basso, cioè verso il pubblico. La Rete è organizzata in modo diverso. È un media orizzontale, consente cioè la comunicazione da molti a molti. Inoltre, il web consente di poter organizzare la propria presenza on-line come meglio si crede. Internet permette cioè la manifestazione della diversità. Il nodo da scegliere è perché in rete possono essere presenti sia atteggiamenti virtuosi che comportamenti pessimi.
Lei usa più volte il concetto di flusso, quasi che il moderno capitalismo non contempli una «solidificazione» di assetti istituzionali, relazioni di potere, identità collettiva. Ma un flusso è però quasi sempre governato, controllato, per evitare che diventi distruttivo. Come sono dunque governati i flussi – di informazione, di merci, di capitali, di uomini -. In altri termini come funzionano gli stati e gli organismi internazionali nella società in rete?
Gli stati nazionali sono le macchine maggiormente distruttive che la storia umana ha prodotto. Opprimono e manipolano i loro sudditi, ingaggiano feroci guerre con altri stati, confiscano la ricchezza prodotta dal lavoro. Le organizzazioni internazionali non sono altro che estensioni del potere degli stati. Ma il potere statale è messo in discussione e ridimensionato dai flussi – di informazioni, uomini, merci e capitali – che gli stati-nazione non riescono davvero a controllare. Accade che talvolta gli stati cercano, per conservare e riprendersi, laddove lo hanno perso, il potere di regolamentarli, di incanalarli, ma quando ci provano assistiamo quasi sempre a un fallimento. Per questo c’è sempre tensione, tra il rimanente potere esercitato dallo stato e l’incontenibile dinamismo dei flussi di informazione e di capitale nelle reti di comunicazione globale.
Lei ha scritto che, per contrastare il potere costituito i movimenti sociali usano media alternativi a quelli dominanti. Ma a un certo punto scrive di «politica insorgente». Può spiegare cosa intende?
I movimenti sociali ccercano, a volte riuscendoci, altre volte no, a trasformare i valori della società. È però all’interno del sistema politico che possono essere cambiati i rapporti di potere nella società. La politica insorgente è sì una azione politica, ma che si sviluppa alla periferia del sistema politico, riuscendo a sopraffare le dinamiche consolidate al suo interno e a imporre nuove idee e nuovi leaders politici. Prendiamo la elezione di Barack Obama alla Casa Bianca. È indubbio che Obama abbia vinto grazie alla campagna di mobilitazione dei giovani e delle minoranze che normalmente non partecipavano al sistema politico. In questo caso ci siamo trovati di fronte a una politica insorgente basata sulla forte speranza di cambiamento. Lo slogan «Yes, we can» illustra bene come si è manifestata questa speranza di cambiamento, che ha mantenuto la sua indipendenza dal leader eletto presidente. Obama potrà anche deludere i «politici insorgenti», ma il cambiamento desiderato e che li ha portati a mobilitarsi non scompare. E quindi quegli stessi attivisti possono riprendere la mobilitazione contro il nuovo leader che non ha mantenuto le sue promesse di cambiamento.
Alcuni studiosi equiparano i movimenti sociali agli sciami. Si costituiscono, ma poi, una volta raggiunto il loro obiettivo, si dissolvono. E come se la politica insorgente sia sempre legata a una contingenza politica e che non possa avere una stabilità e possa durare nel tempo. È d’accordo con questa lettura?
Da sempre i movimenti sociali non sono una forma stabile di azione collettiva. Possono cambiare i valori della nostra società, oppure imporre un tema finora assente nella vita sociale. E quando questo accade si dissolvono con la stessa intensità in cui si sono formati. Il Maggio francese, ad esempio, non ha certo conquistato il potere, né credo che fosse proprio quello il suo obiettivo. In ogni caso ha introdotto nuovi valori e temi nella società, come l’ambientalismo, la solidarietà, i diritti delle donne, la necessità dei cittadini di controllare l’operato dello stato. Temi e valori che sono ormai accettati da milioni di uomini e donne. Prendiamo l’ambientalismo e il femminismo. Non ci sono mai stati, per quanto ne so io, movimenti femministi stabili. E tuttavia le lotte condotte dalle femministe hanno cambiato profondamente la vita delle donne, modificato i loro rapporti con i maschi, il modo di vivere la sessualità. Ha ridisegnato la divisione del lavoro familiare. Sotto molti aspetti sono i movimenti femministi hanno cambiato anche i maschi. Cambiamenti e trasformazioni che non sono certo venuti per decreto emesso da qualche governo. I governi, i parlamenti, insomma il sistema politico ha poi dovuto istituzionalizzarli. L’istituzionalizzazione avviene quando i valori e le tematiche portate avanti dai movimenti si sono già diffuse nella società.
La politica insorgente può conquistare il potere statale. In questo caso però assistiamo a una istituzionalizzazione della politica insorgente. Ma è questo punto che prende avvio un nuovo ciclo che vede il nuovo potere confrontarsi con una nuova politica insorgente. Non è quindi contemplata nessuna stabilità, perché lo stare in società e l’azione politica contemplano sempre il conflitto, il dominio e la resistenza ad esso. La stabilità esiste solo nella testa di chi è al potere e vuole fermare l’inarrestabile e incontenibile movimento della società. E quando cercano di fermare o bloccare il movimento della società falliscono sempre.
http://www.eddyburg.it/article/articleview/14903/0/374/
—
Un algoritmo per scegliere l’impianto adatto 24.03.2010
Il Centro Ricerche Enea ha creato un software che riduce il margine d’errore nella valutazione dell’efficienza energetica e ha applicazioni anche in abito agroalimentare
di Giulia Belardelli
Un algoritmo in grado di dirci quale forma di energia rinnovabile sia più adatta a uno specifico luogo, perché la situazione energetica cambia – e di molto – da un quartiere all’altro, da un palazzo all’altro. E’ questo il senso del software realizzato nei laboratori del Centro Ricerche Enea di Frascati. Il programma, basato su un nuovo tipo di algoritmi, ha applicazioni sia in campo energetico che agricolo. Da un lato consente di calcolare con crescente precisione l’efficienza energetica di impianti rinnovabili, dall’altro fornisce indicazioni sul microclima più adatto a dar vita a un grande vino o ad altre produzioni di qualità.
Il software verrà presentato oggi pomeriggio a Grottaferrata durante l’incontro “Il territorio vitivinicolo alle porte di Roma, la scienza e la tecnologia per uno sviluppo sostenibile”, evento organizzato dall’Associazione Frascati Scienza nell’ambito della Fiera di Grottaferrata. “Si tratta – spiega a Galileo Andrea Forni, ricercatore dell’Enea – di uno strumento che introduce una nuova metodologia per la corretta valutazione delle risorse disponibili sul territorio: prima di costruirli, infatti, occorre sapere con esattezza quale forma di energia rinnovabile (solare fotovoltaico, biomasse, eolico o microvoltaico, ndr.) potrebbe sfruttare al massimo le condizioni di partenza del territorio”.
Come spiega lo stesso ricercatore, gli strumenti attualmente presenti sul mercato per valutare l’efficienza energetica hanno un margine d’errore medio del 4-5 per cento. In un sistema fotovoltaico, per esempio, l’errore è dovuto all’insufficienza degli indicatori che si inseriscono nell’algoritmo, come orientamento, angolo rispetto al piano orizzontale, superficie, prestazione. “Questi algoritmi – continua Forni – prescindono dal contesto e, dunque, non tengono conto di variabili significative che invece possono cambiare completamente la situazione, anche su distanze minime”. La valutazione per l’installazione di un impianto fotovoltaico, per esempio, cambia anche da un palazzo all’altro, in base alle condizioni climatiche o al potere riflettente delle superfici: “Molti considerano le città come isole indifferenziate di calore, ma non è così. Due edifici con le stesse caratteristiche strutturali possono avere rendimenti energetici molto diversi a seconda di dove sorgono. Questo dipende da fattori fisici precisi che possono essere misurati; il nostro algoritmo, diversamente dagli altri, tiene conto anche di questo”.
Il fine è quello di garantire il miglior rapporto costi/benefici a chi investe i capitali negli impianti: un circolo virtuoso fondamentale per raggiungere gli obiettivi del protocollo di Kyoto o dell’Unione Europea. Stesso vantaggio per chi investe nelle risorse agricole. Lo testimonia il Gruppo di azione locale (Gal) del Parco delle Madonie (Palermo), uno dei territori interessati dal progetto: qui lo studio condotto dal Centro ricerche Enea ha evidenziato come si possa contribuire alla riqualificazione di un territorio sfruttando la sua vocazione. Per esempio indicando su quale campo cresca meglio l’uva da Chardonnay e su quale quella da Trebbiano.
http://www.galileonet.it/primo-piano/12552/un-algoritmo-per-scegliere-limpianto-adatto
---
Dall’olio fritto, ecco il tetto intelligente 23.03.2010
Alcuni ricercatori statunitensi sono riusciti a ottenere dall’olio di scarto dei fast food un rivestimento che assorbe o riflette i raggi solari a seconda della temperatura esterna
L’olio della friggitrice spalmato sul tetto di casa per abbassare le bollette. Sembra una sciocchezza ma potrebbe davvero rivoluzionare il modo in cui l’edilizia tenta di risolvere il problema dell’assorbimento di calore. Alcuni ricercatori dello United Environment & Energy LLC (Uee) di Horseheads (NY, Usa), infatti, hanno realizzato, a partire dall’olio di scarto dei fast food, un rivestimento per tetti intelligente: in base alla temperatura esterna assorbe o riflette i raggi solari. La ricerca, finanziata dal ministero per l’energia Usa, è stata presentata al meeting annuale dell’American Chemical Society.
“Si tratta di uno dei materiali di rivestimento per tetti più innovativi mai sviluppati”, ha dichiarato Ben Wen, vice presidente della Uee. In effetti le soluzioni migliori al momento offrono di riflettere la luce solare in estate per evitare di trasformare la casa in un forno, o di assorbire il più possibile calore per abbattere i costi del riscaldamento. Il nuovo rivestimento invece riesce a fare entrambe le cose. Nei test effettuati, per esempio, è riuscito a ridurre la temperatura di un tetto in condizioni sperimentali “estive” dal 50 all’80 per cento, mentre l’ha innalzata in condizioni “invernali” dell’80 per cento.
I ricercatori sono riusciti a raggiungere questo risultato ottenendo dall’olio di scarto un polimero liquido che, raffreddato e applicato, diventa un materiale plastico. A questo composto però hanno aggiunto un ingrediente che per il momento deve restare segreto. Grazie a questo ingrediente è possibile modificare la composizione del rivestimento e fare in modo che, a una specifica temperatura, passi dalla “modalità assorbente” a quella “riflettente”. Il rivestimento è potenzialmente adatto ad ogni tipi di tetto e secondo Ben Wen potrebbe durare diversi anni prima che diventi necessaria una seconda applicazione.
“In questo modo si potrà risparmiare energia e ridurre le emissioni di gas serra e composti volatili dovute anche ai prodotti di rivestimento basati sul petrolio – ha concluso Wen – e si darà una seconda vita a milioni di litri di olio di scarto dopo che saranno serviti a friggere patatine e bocconcini di pollo”. Una precisazione: il composto è completamente inodore, non si rischia quindi di rincasare tutte le sere e pensare di essere nella cucina di un fast food. (c.v.)
Riferimento: American Chemical Society
http://www.galileonet.it/news/12550/dallolio-fritto-ecco-il-tetto-intelligente
---
Datazione “al plasma” 26.03.2010
Il metodo è una variante della tecnica al radiocarbonio che non richiede il prelievo di alcun campione. Potrà essere applicato a reperti finora negati all’analisi
Gli scienziati della Texas A&M University hanno sviluppato un nuovo metodo per determinare l’età di mummie, opere d’arte antiche e altri reperti senza la necessità di alterarli o danneggiarli. La tecnica è stata presentata al meeting nazionale della American Chemical Society e, secondo i ricercatori, consentirà di stabilire l’età di centinaia di reperti finora negati all’analisi.
Infatti il nuovo sistema, denominato “datazione al radiocarbonio non distruttiva”, si basa sull’utilizzo di un plasma (gas ionizzato) e non richiede il prelievo di campioni. Si tratta di una variante della datazione al radiocarbonio, il metodo standard utilizzato dagli archeologi per stimare l’età di un oggetto misurando il suo contenuto naturale di carbonio 14, un isotopo radioattivo del carbonio. Spesso la misurazione richiede il prelievo di una piccolissima parte del manufatto, che viene sottoposta a un trattamento acido e basico e poi bruciata in una camera di vetro. La datazione avviene confrontando i livelli di C14 così ottenuti con quelli che si suppone fossero presenti in determinati periodi storici: in questo modo è possibile datare oggetti la cui origine risale fino 50mila anni fa.
Ma nel caso di oggetti particolarmente rari, anche una perdita minima è considerata inaccettabile, come ha spiegato Marvin Rowe, docente alla Texas A&M University College Station che ha messo a punto la tecnica alternativa assolutamente non invasiva. In questo caso, l’intero reperto viene inserito in una camera speciale con all’interno un plasma (simile a quelli utilizzati per gli schermi delle tv). “Il gas ossida lentamente la superficie dell’oggetto, così da produrre diossido di carbonio per le analisi di C14, senza recare alcun danno”, ha spiegato Rowe.
Lo studio è stato finanziato dalla National Science Foundation e dal National Center for Preservation Technology and Training e finora la tecnica è stata testata su una ventina di sostanze organiche differenti, tra cui legno, pelle, carbone, pelo di coniglio, tessuti umani mummificati e una tela egizia risalente a 1.350 anni fa. “I risultati – hanno confermato i ricercatori – corrispondono a quelli ottenuti con il metodo tradizionale”. Si prospetta quindi anche l’ipotesi di usarla per la datazione della Sindone di Torino. Per ora, comunque, il team della Texas A&M University ha in mente di perfezionare la tecnica per utilizzarla su oggetti piccolissimi come la Venere Brassempouy (frammento di 3,65 centimetri di una statuetta in avorio risalente al Paleolitico superiore). A quanto pare, però, prima di convincere i direttori dei musei e i collezionisti d’arte della sicurezza della nuova tecnica saranno necessari molti altri test, come ammette lo stesso Rowe. (g.b.)
http://www.galileonet.it/news/12557/datazione-al-plasma
—
Il terzo ominide 25.03.2010
Il Dna mitocondriale di un osso ritrovato in Siberia sembra appartenere a una nuova specie di 40.000 anni fa, discendente dello stesso antenato di Neanderthal e uomini moderni
Può un osso piccolo come un dito gettare scompiglio nella comunità scientifica? A quanto pare sì, come dimostra uno studio pubblicato su Nature. Un gruppo di ricerca guidato da Johannes Krause e Svante Pääbo del Max Planck Institute for Evolutionary Anthropology, in Germania, ha analizzato il Dna mitocondriale estratto dalle cellule di una falange ritrovata in Siberia, scoprendo che non appartiene ad alcuna delle specie di ominidi conosciute.
Siamo sui Monti Altai, dove numerosi ritrovamenti di utensili e ossa testimoniano la presenza di popolazioni di ominidi durante il Medio e Alto Paleolitico (dai 120 ai 10 mila anni fa). Proprio qui, nel 2008, Michael Shunkov e Anatoli Derevianko della Russian Academy of Sciences di Novosibirsk scoprono una falange datata tra 48 e 30 mila anni fa, quando l’Asia Centrale era popolata da Homo Neanderthalensis e Homo sapiens. Oggi, grazie alle moderne tecniche di sequenziamento del Dna, Krause e la sua equipe sono riusciti a “leggere” l’informazione contenuta in 16.569 lettere del Dna mitocondriale estratto dalle cellule ossee del reperto, e sembra proprio che una terza specie, finora sconosciuta, abitasse quelle stesse lande.
I mitocondri sono organelli cellulari che producono energia e possiedono un proprio Dna, il cui studio, recentemente, ha regalato preziose informazioni sui Neanderthal (vedi Galileo). Una volta decodificato, il Dna mitocondriale del nuovo fossile è stato confrontato con quello di uomini moderni e neandertaliani. Risultato: nessuna corrispondenza. A chi apparteneva quindi la falange?
La domanda per ora è senza risposta, ma le analisi indicano che l’ominide misterioso condivideva con neandertaliani e uomini moderni un antenato risalente a circa un milione di anni fa. Se è vero – come tutti i dati paleontologici in nostro possesso indicano – che l’essere umano moderno si è sviluppato in Africa, anche questo comune antenato doveva essere africano. Ciò esclude che la falange appartenga a un discendente di Homo erectus, che lasciò l’Africa 1,9 milioni di anni fa (molto prima della comparsa degli uomini moderni). D’altra parte, l’ominide non può essere nemmeno un antenato dei soli Neanderthal, dato che neandertaliani e uomini moderni si sono separati circa 446 mila anni fa (molto dopo la prima comparsa dell’antenato comune, vedi Galileo).
L’ipotesi avanzata dai ricercatori è dunque quella di una specie ancora non nota che lasciò l’Africa e visse in Eurasia sino a circa 40 mila anni fa. Ma tutta la verità verrà fuori solo se e quando sarà possibile analizzare, oltre al Dna mitocondriale, anche quello nucleare. (m.s.)
Riferimenti: doi:10.1038/nature08976
http://www.galileonet.it/news/12555/il-terzo-ominide
—
Insulina da respirare 24.03.2010
Un’azienda farmaceutica ha sperimentato l’insulina in polvere che si assume per inalazione. Ora si attende il via libera della Fda
Basta iniezioni quotidiane per chi soffre di diabete. Al 239esimo meeting dell’American Chemical Society i ricercatori dell’azienda farmaceutica statunitense MannKind Corporation hanno presentato l’insulina in polvere che può essere somministrata durante i pasti per semplice inalazione. I vantaggi sembrano essere molteplici: agisce più velocemente e risparmia al fisico fastidiosi effetti collaterali.
Si tratta di un’insulina prodotta artificialmente con la tecnica del Dna ricombinante (che permette di unire frammenti di Dna di organismi diversi). La medicina sfrutta la cosiddetta Technosphere®technology, una tecnologia brevettata dalla MannKind Corporation che permette di veicolare medicine nell’organismo sotto forma di polvere. Il sistema si basa sulla capacità di alcune molecole (Fdkp) di auto-assemblarsi in particelle più grandi, sulle quali viene “caricata” la medicina in questione. Le particelle sono quindi essiccate e ridotte in polvere. “Usando un dispositivo piccolo come un pollice”, ha spiegato Leone-Bay, uno dei ricercatori che hanno lavorato al farmaco, “i pazienti inalano una piccola quantità della medicina, equivalente circa a un pizzico di sale. La polvere inalata viene subito assorbita dai polmoni e disciolta nel flusso sanguigno. Il tutto avviene molto rapidamente, e ciò permette alla medicina di fare effetto più velocemente rispetto alla consuete terapie per iniezione”.
Secondo i ricercatori, la medicina possiede anche altri vantaggi: abbassa il rischio di entrare in ipo-glicemia (un eccessivo abbassamento dei livelli di zucchero nel sangue) in seguito all’assunzione di insulina dopo i pasti, riduce l’aumento di peso causato dalla terapia e presenta una modalità di assunzione facile, veloce e discreta.
In attesa del via libera dalla Food and Drug Administration per la commercializzazione del nuovo medicinale, la MannKind Corporation sta sperimentando altri utilizzi della sua Technosphere®technology. Allo studio ci sono medicine in polvere per combattere l’obesità, l’osteoporosi e il dolore. Si tratta di medicine che, se somministrate per via orale, verrebbero distrutte nello stomaco, senza sortire alcuna efficacia. (m.s.)
Riferimenti: American Chemical Society
http://www.galileonet.it/news/12553/insulina-da-respirare
—
31/03/2010 – PARTE L’ACCELERATORE LHC DI GINEVRA. UN TEAM INTERNAZIONALE DI MILLE SCIENZIATI INDAGHERA’ L’ORIGINE DELLA MATERIA
Giubellino dal Cern
“Il mio viaggio nel Big Bang”
Il direttore italiano del test “Alice”: vedremo l’inizio dell’Universo
GABRIELE BECCARIA
Ha il nome più bello dei 4 esperimenti previsti nell’anello sotterraneo dell’acceleratore di particelle «Large hadron collider» del Cern a Ginevra: si chiama «Alice» ed è una macchina del tempo che riporterà la materia indietro di circa 14 miliardi di anni, al Big Bang. A guidare il test è un italiano, il fisico torinese Paolo Giubellino, definito «spokesperson».
Professore, è vero che lei è il capo di un’organizzazione molto particolare, che periodicamente è studiata anche da antropologi e sociologi?«E’ vero. Ogni esperimento di Lhc è come una libera nazione, con una propria Costituzione, un potere legislativo, incarnato dal “collaboration board” in cui sono rappresentati gli istituti partecipanti, e un potere esecutivo, in cui il responsabile è lo “spokesperson”, il capo del governo, che ha un mandato di 3 anni».
E lei è stato eletto, giusto?
«Sì. Da una maggioranza di due terzi. E prima c’erano state le primarie per la presentazione dei candidati, fino al voto con i 2 sfidanti finali».
Siete un esempio di democrazia funzionante, anche se composta da cervelloni.
«E’ una democrazia delicata, in cui il capo del governo non ha un potere coercitivo, in quanto ogni istituzione contribuisce con fondi, know-how e persone: si basa, perciò, su una libera trasmissione di sovranità. Siamo un po’ come la federazione svizzera che ospita il Cern».
Quante persone lavorano con lei?
«Un migliaio di scienziati, più altrettanti tecnici e ingegneri. Vengono dai laboratori e dalle università più prestigiosi e da tutto il mondo».
Con gli italiani, una volta tanto, in primo piano.
«Hanno un peso significativo: la mia elezione rappresenta l’importanza del contributo italiano e del gruppo torinese dell’Infn, l’Istituto di fisica nucleare, che ha avuto un ruolo importante già all’ideazione di “Alice”».
Come si guida un team così esteso?
«L’esperimento è articolato in 18 progetti: siamo paragonabili a un satellite, che, dopo essere lanciato – in questo caso da Lhc – misura una vasta gamma di segnali».
Ora siete partiti.
«Abbiamo raccolto i primi dati già in autunno, con il fascio all’energia all’energia più bassa, e così abbiamo verificato il perfetto funzionamento degli strumenti. Da questa settimana, invece, si entra in mare aperto, in una regione di energie totalmente nuova. Ci aspettiamo sorprese già a breve».
Può dare un’idea di questa energia?
«La misuriamo in 7 Tev, vale a dire in 7 Teraelettronvolt, l’unità di misura che equivale a 1000 miliardi di elettronvolt. E’ 3 volte il massimo raggiunto nei precedenti test e la potenza del fascio di particelle equivale a una portaerei lanciata in piena velocità e concentrata in uno spazio di poche decine di micron».
Di che particelle si tratta?
«Si inizia con un fascio di protoni, fino all’estate, poi si passerà ai nuclei di piombo, quelli che ad “Alice” interessano di più. Utilizzando collisioni fra nuclei è possibile comprimere in una piccolissima regione di spazio una grande quantità di protoni e neutroni, fino a creare un plasma di quark e gluoni, che sono i componenti dei protoni e dei neutroni stessi: sono i mattoni della materia».
Il plasma è caldissimo.
«Arriva a una temperatura di 150-160 Mev, che equivale a 100 mila volte quella all’interno del Sole».
Lì che cosa accade?
«Quark e gluoni si muovono liberamente, finché, in una frazione infinitesima di secondo, si riformano gli adroni, vale a dire le particelle “ordinarie”, in cui quark e gluoni sono di nuovo confinati. Questo fenomeno è fantastico da studiare, perché è ciò che è successo all’origine dell’Universo».
Lo racconti.
«Tutto è cominciato con un plasma che si espandeva e si raffreddava, finché si sono formate le particelle. E’ significativo che i quark, da soli, siano leggerissimi, mentre acquiscono una massa significativa quando sono confinati. Si tratta di una transizione di fase fondamentale per la nostra comprensione della struttura del cosmo».
E’ vero che vedrete solo indirettamente la «palla infuocata» del Big Bang?
«E’ come quando si studia il cielo: si vede un insieme di risultati formatisi in tempi diversi, filtrati dal fatto di aver attraversato estese regioni di spazio. Così vedremo un gran numero di particelle emesse e dalle loro caratteristiche risaliremo alla storia dei primi istanti dell’Universo. Studieremo le interazioni tra quark e gluoni, quando erano liberi, e come si sono associati per formare le particelle. Ma è solo l’inizio. Ciò che si è già scoperto – con l’acceleratore di Brookhaven – è che il plasma è simile a un liquido ideale. E’ una realtà che permette connessioni inaspettate con altre scienze: alcune sue proprietà sembrano calcolabili nell’ambito delle teorie delle superstringhe che, finora, si pensava non avrebbero mai avuto modo di confrontarsi con misure sperimentali».
Con «Alice» come potrebbe cambiare la fisica?
«Potremo indagare la formazione degli elementi pesanti, la generazione della massa, le caratteristiche delle interazioni forti, quelle nucleari, la cui comprensione è ancora lontana dell’essere completa. Sembrano problemi esoterici, ma ci aspettiamo che si apra una finestra tutta nuova sulla materia e sull’Universo».
Chi è Paolo Giubellino Fisico
RUOLO: E’ DIRIGENTE DI RICERCA DELL’ISTITUTO NAZIONALE DI FISICA ED È COORDINATORE INTERNAZIONALE DELL’ESPERIMENTO «ALICE» DELL’ACCELERATORE DI PARTICELLE LHC DI GINEVRA.
http://www3.lastampa.it/scienza/sezioni/news/articolo/lstp/174822/
—
economia, mainstream, università di Carlo D’Ippoliti
Pluralismo a rischio nelle aule d’economia 30/03/2010
L’economia eterodossa è ancora l’eccezione alla regola mainstream. E i giovani sono incentivati al conformismo. Quale pensiero economico ci aspetta nel futuro?
Secondo uno studio recente (1) nel 2001-2003, triennio considerato dal passato esercizio di valutazione della ricerca realizzato dal CIVR, un economista italiano su cinque ha scritto almeno una pubblicazione con metodi o su temi che egli stesso ha definito “eterodossi”. Uno su quattro ha scritto sulla storia del pensiero economico, in Italia tradizionalmente utilizzata per la comparazione di teorie e paradigmi teorici alternativi.
Malgrado ciò, il Manifesto per la libertà del pensiero economico promosso dall’Associazione Paolo Sylos Labini appare quanto mai necessario. Non solo infatti le teorie e gli approcci non ortodossi sono ignorati nel dibattito teorico dalla maggioranza degli economisti, e privati di qualsivoglia visibilità, ma questo problema diventa tanto più grave a livello “basso” della cultura economica. Infatti, ancor più dell’accademia, il senso comune e il linguaggio dei media attingono esclusivamente all’economia mainstream.
Le ragioni per cui ciò accade sono numerose, e fondamentale sembra il ruolo degli interessi economici e delle posizioni di vantaggio che vengono (a volte persino involontariamente) tutelate dalla retorica iper-liberista che non concede spazi per politiche redistributive o solidaristiche.
Tra le ragioni vi é anche la scelta di molti economisti eterodossi di presentare – al più in forma critica – solo teorie mainstream nei corsi di base (quelli per gli studenti dei corsi di laurea) e di insegnare modelli e approcci alternativi solo in seguito, nei corsi avanzati (spesso solo per gli studenti di dottorato). Questa pratica ha una giustificazione pluralista importante: serve a mettere gli studenti in grado di poter proseguire i propri studi – magari all’estero, se lo vogliono – lungo un percorso mainstream, laddove quest’ultimo risulti maggioritario numericamente.
Però, questa pratica ha almeno tre inconvenienti:
1. Legittima la percezione che le basi dell’economia, ció che é veramente necessario sapere, sono l’economia mainstream seppure con spirito critico; mentre gli approcci alternativi sono ‘raffinatezze teoriche’ da addetti ai lavori
2. Induce gli studenti di economia a guardare con sospetto, giunti con la laurea al momento di scegliere un dottorato, tutti quei programmi che sembrano sconosciuti ed esoterici
3. Lascia tutti gli studenti che non si specializzano in economia con la sola conoscenza (al massimo un po’ critica) dei modelli mainstream
Il primo punto é discusso in diversi interventi a commento del Manifesto disponibili nel sito http://www.syloslabini.info. Vorrei quindi brevemente commentare gli altri due, anche se reputo grave che debba essere un giovane a parlare “di giovani”. Infatti, occorre chiarire che, invece che difendere o rappresentare presunti interessi di categoria, la questione che sto discutendo ha a che fare col tipo di economia che sarà adottata e studiata tra 10 anni, se non per ragioni di merito, semplicemente per ragioni anagrafiche.
Il secondo punto sollevato ha a che fare proprio con gli incentivi per i giovani economisti. Anzitutto molti studenti si laureano essendo stati ormai convinti dell’inutilità di metodi, ad esempio, storici e dell’unicità e correttezza del paradigma dominante. In quest’ottica, non solo corsi di master o dottorato non ortodossi sono difficili da essere compresi – visti dall’esterno, prima di essere iniziati – e, quindi, scelti; ma soprattutto, se non presentano una grossa componente quantitativa, sembrano pericolosamente vicini ad un lusso intellettuale, invece che ad un investimento sulla propria carriera futura. Questo problema è separato ma parallelo al forte incentivo al conformismo che deriva dai timori per i giovani ricercatori a dedicarsi a temi o metodi che difficilmente verrebbero compresi ed accettati dalla maggioranza delle persone che, nell’immediato futuro, dovrebbero giudicarli ai fini di assunzione o di carriera. Ció rende il numero di ricercatori e giovani professori eterodossi molto inferiore – anche in termini relativi – a quello dei più anziani professori eterodossi, e dunque per gli economisti eterodossi si pone un problema di mancato ricambio generazionale. Oggi questo è tanto più grave per la forte asimmetria tra il mercato del lavoro degli anziani – fin troppo tutelato – e quello dei giovani – caratterizzato da precarietà sia nell’occupazione che nel reddito.
Infine l’ultimo punto, relativo a quale economia insegnamo ai non economisti, è forse il più importante. Il senso comune e l’opinione pubblica (ovvero, i media) determinano sempre più il modo di pensare e di comportarsi dei policymakers, così come il giudizio che di loro hanno gli elettori. Come conseguenza dell’insegnamento non pluralista nei corsi di base, commercialisti, piccoli imprenditori, dipendenti di banche, quadri e dirigenti, ma soprattutto – purtroppo – giornalisti, editorialisti e funzionari di partito, imparano a vedere e analizzare la società solo con gli occhiali deformanti dell’economia mainstream. Non è poi una gran sorpresa se non hanno orecchie per sentire (né formazione per intendere) voci alternative o critiche, al più bollate come disinformate o idealiste ed illuse.
Di fronte a questo, la crisi economica ha portato qualche scossone. I più, comunque, si domandano “quando finirà”, che equivale a dire che la crisi è un momentaneo incidente di percorso, che ovviamente presto tutto tornerà come prima, inclusi gli occhiali necessari a leggere correttamente la società: quelli di sempre, quelli dell’economia tradizionale. Spesso questo include chi (come ad esempio Joseph Stiglitz nel suo intervento alla riunione annuale dell’associazione americana degli economisti) riconosce l’origine strutturale della crisi.
Come sempre, mi sembra difficile che possa esserci una sola soluzione. Nell’accademia è indispensabile ampliare l’adozione di libri di testo e di programmi di studio pluralisti già nei corsi di base (come oggi viene fatto a Roma, Bologna, Napoli, Milano, …).Ma soprattutto, fondazioni, partiti e associazioni dovrebbero fornire centri di formazione, dibattito ed elaborazione meno conformisti, nonostante questo significhi criticare alcune delle politiche e delle interpretazioni che hanno portato avanti fino a poco fa. Anche per questi luoghi passa la formazione dell’opinione pubblica e l’informazione a giornalisti, politici e commentatori. Purtroppo, questa ricetta richiede di affrontare un altro problema di ricambio generazionale: quello in politica e nei centri culturali. Le prospettive, dunque, non sono affatto incoraggianti.
(1) Corsi, M., D’Ippoliti, C., Lucidi, F. (2010), “Pluralism at risk? On the Evaluation of Economic Research in Italy”, American Journal of Economics and Sociology, in via di pubblicazione. Ulteriori dati possono essere forniti su richiesta dall’autore.
http://www.sbilanciamoci.info/Sezioni/globi/Pluralismo-a-rischio-nelle-aule-d-economia
—
ontainer, globalizzazione, porti, trasporti di Pietro Spirito
C’è una bolla in mezzo al mare 30/03/2010
“Le multinazionali del mare” di Sergio Bologna: i cambiamenti dell’economia marittima; le portacontainer come fabbriche post-fordiste; gli effetti della crisi
Le grandi navi porta container come fabbriche post-fordiste in alto mare; una bolla marittima parallela alla bolla immobiliare e a quella finanziaria; un gigantismo che si è poi ripiegato su se stesso al momento dello scoppio della crisi, lasciando in acqua parecchie vittime. Il libro di Sergio Bologna, “Le multinazionali del mare”, ci accompagna nei processi di profondo cambiamento di assetto industriale che hanno caratterizzato l’organizzazione del sistema marittimo e portuale, dagli anni d’oro della globalizzazione alla crisi dei giorni nostri.
I fenomeni di delocalizzazione produttiva e di globalizzazione che si sono determinati con intensità nel corso degli ultimi decenni non sarebbero stati possibili se l’economia portuale e marittima avesse conservato le caratteristiche proprie dell’economia fordista. Nel paradigma della prima industrializzazione, i porti erano soprattutto punti di agglomerazione dei grandi apparati produttivi di base, che si localizzavano a ridosso delle banchine per sfruttare le economie logistiche possibili nel ciclo tra approvvigionamenti di materie prime e distribuzione del prodotto finito. Prevaleva in quella fase la dimensione del porto industriale, ribaltando una tradizione che aveva visto il sistema degli interessi essere piuttosto originariamente orientato al modello del porto commerciale, all’interno del quale i flussi di merce erano governati dalla domanda del territorio retrostante (hinterland), generando, all’interno del sistema portuale, tutta una serie di attività di servizio e di intermediazione che erano state l’origine dei tanti mestieri cresciuti attorno al traffico marittimo ed alle banchine.
L’unitizzazione dei carichi, indotta dalla diffusione del container, ha determinato, nei decenni più recenti, una sostanziale discontinuità nel sistema dei trasporti, che, assieme ai processi di deindustrializzazione degli insediamenti portuali, ha mutato radicalmente il volto ed il modello organizzativo di una delle attività economiche più antiche dell’uomo. I terminal container hanno consentito un processo di industrializzazione dell’attività portuale, determinando l’eliminazione dei fabbricati di magazzino sulla banchina, la costruzione di ampi piazzali per lo stoccaggio dei contenitori, l’automazione dei processi di trasferimento intermodale della merce. E’ cambiato radicalmente, in un tempo relativamente breve, il panorama portuale, sostanzialmente oggi caratterizzato contemporaneamente, nei porti che hanno maggiore storia, da aree deindustrializzate che hanno subito processi di riqualificazione urbana del waterfront, e nuovi insediamenti di terminal specializzati per la gestione dei carichi.
Il traffico dei container è diventato il termometro della globalizzazione e della internazionalizzazione dei flussi logistici, anche se, come ci ricorda Sergio Bologna nel suo libro, i traffici di rinfuse solide e di general cargo sono parte ancora rilevante dei flussi globali di merce. Dal 1990 al 2007, il volume dei contenitori movimentato nei porti è passato da 25 a 125 milioni di TEU (twenty equivalent unit, il container da venti piedi che è l’unità di misura del traffico). Ed è cambiato profondamente, per effetto dell’avvento dei container, il mercato del trasporto marittimo, attraverso un processo di concentrazione proprietaria di dimensioni radicali: oggi 15 compagnie controllano il 66% della flotta full container mondiale, pari al 77% della capacità offerta, se si considerano solo le navi con capacità superiore ai 1.000 TEU. Tra le prime cinque compagnie del mondo, quattro sono europee (Maersk, MSC, CMA-CGM ed Hapag Lloyd).
Più della metà dell’armamento utilizzato per il trasporto dei contenitori non è però di proprietà degli armatori stessi: il 51,4% delle navi a disposizione dei primi 15 operatori mondiali è noleggiato, il 47% in termini di capacità. La crisi degli ultimi due anni ha non solo rallentato i programmi di investimento, ma ha anche determinato il fermo di una parte consistente della flotta operativa: a maggio del 2009 erano ferme 576 navi e 78 ordini erano stati revocati.
In tale gigantesco cambiamento, non tutti i porti hanno reagito allo stesso modo. Anzi, i modelli di funzionamento operativo dei porti europei sono profondamente differenti. Scrive Bologna: “A differenza dei grandi porti italiani, che distano in media più di cento chilometri dai maggiori mercati, e utilizzano soprattutto il camion, Anversa ed Amburgo smistano la maggioranza dei container in import e in export su strada in un’area distante non più di 50 chilometri dal porto, utilizzando intensamente il treno per le medie-lunghe distanze”.
Insomma, mentre i porti italiani sono al servizio sostanzialmente esclusivo del sistema produttivo nazionale, se si escludono i casi dei nostri porti di transhipment, che svolgono una funzione nella rete globale dei collegamenti marittimi (Gioia Tauro e Taranto), i porti di Nord Europa sono al servizio dell’intero sistema produttivo europeo, avendo puntato su modelli di organizzazione basati sulla efficienza e sulla riduzione dei tempi medi di sosta dei contenitori (dwell time).
Vale la pena di sottolineare che, se la capacità del terminal portuale lo consente, soste prolungate, oltre il periodo di franchigia – di solito una settimana –, possono essere una fonte di introiti per il terminal altrettanto interessante rispetto quelli generati dalle operazioni di sbarco e di imbarco. Quando si sostiene che i porti italiani potrebbero essere attrattivi nei traffici transoceanici per evitare il giro di navigazione necessario per giungere ai porti del Nord Europa, risparmiando 4-5 giorni di transit time, si omette di segnalare che i tempi di sosta dei container nei porti italiani assumono dimensioni temporali ben più dilatate (sino a 15-20 giorni), forse anche per l’interesse dei gestori dei terminal a giocare la propria redditività sull’allungamento dei tempi di sosta, piuttosto che non sulla efficienza del periodo di attraversamento. Come si legge nel libro, “l’immagine idilliaca di una supply chain come sistema dove tutti ci guadagnano, si scontra con una realtà fatta di astuzie e di molte zone d’ombra, dove il concetto di efficienza è tutt’altro che lineare, e talvolta contraddice l’idea del guadagno”.
La trasformazione del modello industriale proprio dell’economia marittima e portuale modifica la centralità dei soggetti che compongono la catena del valore: se prima era il carrier, il soggetto che trasporta la merce per mare da porto e porto, ad essere l’elemento strategico di riferimento, oggi sempre maggiore rilevanza assume lo stevedor, il soggetto che scarica e carica la merce nei porti. Così come si è formato un mercato oligopolistico degli armatori, negli ultimi due decenni si è consolidato un mercato oligopolistico dei gestori dei terminal, con processi di concentrazione, di privatizzazione e di liberalizzazione delle banchine portuali.
Si è affermato un modello di integrazione orizzontale, che ha visto i principali armatori protagonisti diretti anche nella gestione dei terminal. In tempi più recenti, il focus si sta ulteriormente spostando sui collegamenti terrestri, con l’affermazione del concetto di “regionalizzazione del porto”, inteso come area vasta di governo del retroterra logistico. Il porto diventa uno snodo tra i flussi marittimi e l’inoltro verso le destinazioni finali della merce, in un corridoio che deve gestito secondo una dimensione integrata.
Insomma, il ciclo economico tende ad integrare attività marittime, portuali e terrestri in una regia unitaria. Se osserviamo la lista dei primi 20 gestori di terminal, oltre il 50% sono espressione proprietaria di interessi armatoriali. Il processo di concentrazione che si è realizzato assume proporzioni davvero robuste: circa tre quarti del traffico globale di container nei porti del mondo è trattato in terminal nei quali i primi cinque operatori hanno una quota pari almeno al 10%. Il modello proprietario ha visto la presenza crescente di operatori privati, che agiscono generalmente come soggetti concessionari; va però sottolineato che i primi due terminalisti del mondo, PSA (Port of Singapore Authority) e DPW (Dubai Ports World), sono società pubbliche controllate da due Stati.
Nell’analisi di Bologna è particolare interessante, anche perché poco studiata, la dimensione finanziaria dello shipping, che riproduce le stesse dinamiche perverse della speculazione sperimentata nel settore immobiliare. Nella sola Germania, i crediti finanziari al settore, a fine 2006, erano pari a quasi 80 miliardi di euro, di cui 28,5 sottoscritti nello stesso 2006.
Cavalcando l’onda di tassi di crescita significativi per tutto lo shipping, e con previsioni che ancora segnalavano un’onda lunga di futuri incrementi, si sono cominciate a costruire navi anche senza aver sottoscritto impegni di noleggio con gli armatori, nella convinzione che fosse l’offerta e generare la domanda, nella migliore delle tradizioni neo-classiche che precede sempre l’esplosione delle bolle speculative.
Scrive il Lloyd’s Annual Report 2008, nel libro: “La maggior parte della flotta mondiale commerciale, valutata 1,3 trilioni di dollari poco prima della crisi, ha subito una svalutazione, aprendo una fase di moral hazard, cioè di tentativi di frode da parte di proprietari poco scrupolosi”. Nel 2008 il valore medio delle richieste di indennizzo era raddoppiato, costringendo alcune società assicuratrici a cercare di uscire dal mercato: AIG (il colosso assicurativo statunitense), travolta dalla crisi, ha ceduto le sue attività nel settore marittimo.
Con questi e molti altri spunti , il libro di Sergio Bologna apre il nostro sguardo al mondo complesso dell’economia marittima, in una fase di passaggio dalla globalizzazione trionfante alla crisi di un modello di sviluppo di cui non si vede ancora la traiettoria di uscita.
Sergio Bologna, Le multinazionali del mare, Egea, 2010, 28 euro
http://www.sbilanciamoci.info/Sezioni/globi/C-e-una-bolla-in-mezzo-al-mare
—
Cargo aereo: inchiesta Antitrust dell’Ue, dalla newsletter del 01.04.2010
Tra il 1997 e il 2000 molte compagnie aeree internazionali hanno applicato un “sovrapprezzo carburante” alle tariffe dei servizi di trasporto aereo per seguire l’innalzamento del prezzo del cherosene. Dal 2000 al febbraio 2006, il sovrapprezzo è stato applicato da vettori internazionali accusati oggi di aver costituito un cartello su scala globale.
Le iniziali diffide del Dipartimento statunitense dei Trasporti e della IATA (Associazione Internazionale del Trasporto Aereo – organismo rappresentativo del settore delle compagnie aeree) non hanno prodotto alcun effetto. Ma nel febbraio 2006 una delle società componenti il cartello ha denunciato la situazione.
Gli enti di regolamentazione di vari paesi extraeuropei hanno condotto ispezioni a sorpresa e promosso azioni legali. Ad oggi, le compagnie aeree hanno pagato, a seguito di 15 dichiarazioni di colpevolezza:
ammende per circa 1,6 miliardi di dollari USA
risarcimenti per circa 100 milioni di dollari USA.
Il 21 dicembre 2007 anche la Commissione Europea ha trasmesso ad alcune compagnie aeree una lettera di obiezioni in cui si prospettava la violazione delle regole comunitarie sulle pratiche commerciali restrittive.
Entro i prossimi mesi potrebbero essere imposte sanzioni anche in Europa. Verosimilmente, la Commissione inviterà gli acquirenti del trasporto aereo a rivendicare le proprie perdite attraverso un’azione legale privata (private enforcement).
Le aziende che hanno acquistato nel periodo 2000 – 2006 servizi internazionali di Air Cargo da e verso i Paesi europei (anche via spedizioniere) potrebbero cercare di recuperare gli importi corrispondenti all’aumento delle tariffe applicati indebitamente in virtù del cartello. La stima preliminare del potenziale rimborso è pari al 10% circa dell’importo totale speso per i servizi di trasporto aereo delle merci acquistati nei 6 anni considerati.
Sembra opportuno ricordare le raccomandazioni dell’European Consumer’s Organisation BEUC che consiglia, in questi casi, l’unificazione delle richieste avanzate da più soggetti in un unico procedimento. Le azioni collettive generano infatti economie di scala che minimizzano le spese e massimizzano il recupero.
Le informazioni di seguito riportate sono tratte da materiale reso pubblico nel corso di procedimenti giudiziari condotti in paesi extra-europei e in pubblicazioni di enti di regolamentazione della concorrenza.
Il sovrapprezzo carburante è stato in alcuni casi aumentato anche di venti volte: da 4 cent/kg a 72 cent/kg.
Cargolux, Nippon e Asiana hanno accettato il pagamento di ammende per un totale di 214 milioni di dollari USA.
Nel bilancio consolidato del gruppo Air France – KLM relativo all’esercizio conclusosi il 31 marzo 2008 è stato iscritto un accantonamento di 530 milioni di euro per far fronte alle indagini antitrust condotte nell’Unione Europea e negli Stati Uniti.
Nel maggio 2007 British Airways ha annunciato un accantonamento di 350 milioni di sterline, come stima del costo della composizione delle richieste di risarcimento relative alla fissazione delle tariffe.
http://www.newsmercati.com/Article?ida=4716&idl=2764&idi=1&idu=49647
—
Medioevo lumbard
C.R., 01.04.2010
Si parte dalla pillola Ru 486. Dopo che il neogovernatore del Piemonte Cota ha detto che “per quanto lo riguarda può benissimo restare nei magazzini”, Maurizio Gasparri attacca il direttore dell’Agenzia per il farmaco (Aifa). Plausi da monsignor Fisichella, mentre il papa esorta i cristiani a “rifiutarsi di fare ciò che negli ordinamenti giuridici non è diritto, ma ingiustizia”, a cominciare dall'”uccisione di bambini innocenti non ancora nati”. La “violenza sul tema dell’aborto, anche da parte della Chiesa”, rischia di rivelarsi un boomerang per la salute della donna, “aumentando la diffusione del ‘fai da te’ e degli abortifici clandestini”, è l’amaro commento di Carlo Flamigni, ginecologo e componente del Comitato nazionale di bioetica
Il centrodestra ha vinto le elezioni regionali e, rafforzato, si avvia alle crociate contro le donne. Si parte dalla pillola Ru 486. Dopo che il neogovernatore del Piemonte Cota ha detto che “per quanto lo riguarda può benissimo restare nei magazzini”, parla anche Renata Polverini, che si tiene più prudente: la somministrazione della Ru486 “seguirà lo stesso percorso dell’aborto chirurgico, quindi sarà somministrata in ospedale”. “C’è una legge, la 194, che va rispettata io sono a favore della vita e farò tutto quello che è necessario per difenderla nel rispetto della legge”.
Inoltre, in un continuo rincorrersi tra Lega e Pdl, da quest’ultimi parte anche l’attacco al direttore dell’Agenzia per il farmaco (Aifa). “Appare sempre più evidente la inadeguatezza del direttore Guido Rasi – dice Maurizio Gasparri -, che continua ad intervenire in maniera strana sulla pillola e sembra sempre più un piazzista di farmaci. Porrò al governo il problema della gestione dell’Aifa, che a mio avviso non garantisce adeguati livelli di competenza, trasparenza, imparzialità. Con la salute e con la vita non si scherza”.
Posizioni sponsorizzate dalla Chiesa, con Monsignor Fisichella, presidente della pontificia accademia per la Vita che invia il suo plauso esplicito al governatore piemontese, capace di “atti concreti che parlano da sé”.
E il papa che, durante la messa del Crisma di oggi, ha esortato i cristiani a “rifiutarsi di fare ciò che negli ordinamenti giuridici non è diritto, ma ingiustizia”, a cominciare dall'”uccisione di bambini innocenti non ancora nati”. Durante l’omelia, però, il Pontefice non ha fatto nessun accenno agli scandali sulla pedofilia che stanno investendo la Chiesa, anche se l’occasione era certo propizia dal momento che durante il rito crismale vengono benedetti gli oli dei sacramenti, tra cui quello del sacerdozio, ponendo al centro della cerimonia la missione dei preti.
E’ la nuova aria che tira. E non è certamente una ventata di aria fresca. Il cammino perché le donne italiane possano abortire con la pillola Ru486, in ospedale o in day hospital, potrebbe essere più lungo del previsto.
Le parole del governatore Cota sono bollate come “stupidaggini” da Enrico Rossi, presidente della Regione Toscana. “In Italia è garantita la libertà terapeutica, un ambito che riguarda solo il medico, il paziente e il loro rapporto. Tutto il resto sono chiacchiere inutili”.
Tuttavia è reale la possibilità che i presidenti delle regioni possano rallentare l’arrivo della Ru486 negli ospedali. A spiegarlo è il sottosegretario alla Salute, Eugenia Roccella: “Tecnicamente i presidenti delle regioni potrebbero rallentare o anche impedire che il farmaco arrivi negli ospedali non facendolo introdurre nel prontuario regionale”. La Ru486 “ha completato tutto l’iter legislativo – precisa Roccella – una volta che l’Aifa ha stabilito il prezzo e autorizzato la messa in commercio secondo il prontuario nazionale. A livello regionale invece l’arrivo della pillola può essere rallentato o bloccato sotto un profilo tecnico-economico”. La Ru486 può “in teoria non essere inserita nel prontuario regionale – conclude il sottosegretario – sulla base di considerazioni circa il prezzo e la rimborsabilità. Se quindi il farmaco non viene inserito nel prontuario regionale, gli ospedali sul piano pratico non potrebbero poi ordinarlo. Tuttavia, in un’eventualità del genere, si aprirebbe poi un problema con l’Aifa, perché il prontuario nazionale è il suo”.
La “violenza sul tema dell’aborto, anche da parte della Chiesa”, rischia di rivelarsi un boomerang per la salute della donna, “aumentando la diffusione del ‘fai da te’ e degli abortifici clandestini”, è l’amaro commento di Carlo Flamigni, ginecologo e componente del Comitato nazionale di bioetica, alle ultime dichiarazioni sulla pillola abortiva Ru486 e alle parole di Papa Benedetto XVI.
“Non si tratta di argomenti nuovi – dice Flamigni – ma certo c’è un’aggressività notevole, che di fatto rischia di aumentare i problemi per le donne che chiedono l’interruzione di gravidanza. Già la diffusione dell’obiezione di coscienza rende problematica l’Ivg” in alcune aree del Paese, evidenzia Flamigni. “Ora questo clima rischia di aumentare la diffusione del ‘fai da te’ e degli abortifici clandestini”, avverte.
“I primi si stanno diffondendo già nel Paese: non sono rari – assicura – i casi delle donne immigrate, soprattutto dell’Est, che vanno in farmacia e comprano le prostaglandine per interrompere gravidanze indesiderate, e poi finiscono al pronto soccorso”.
“Proprio per contrastare i danni legati alle interruzioni di gravidanza illegali – continua – ci siamo battuti per anni per l’informazione e la contraccezione. Ma ora, in questo clima di aggressività e violenza nei confronti della pillola abortiva, ma anche della stessa legge 194,i rischiamo di tornare a vedere ‘pesanti effetti collaterali’. Mi chiedo – conclude Flamigni – dove sia finita la compassione”.
Pronta la replica del Pd. “Le dichiarazioni di oggi del presidente del gruppo del Pdl al Senato Maurizio Gasparri sulla pillola abortiva Ru486 appaiono minacce e come tali sono fuori luogo. Applicare e far rispettare una legge dello Stato, la 194 sull’aborto, non dovrebbe essere in discussione per un parlamentare della Repubblica”, dice Anna Finocchiaro, presidente del gruppo del Pd al Senato.
“L’utilizzo della pillola Ru 486- sottolinea Finocchiaro- è stato autorizzato nell’ambito dell’applicazione della legge 194 dopo un lungo iter di sperimentazione e di verifica, che ha visto impegnata anche la Commissione Sanità del Senato in un’indagine conoscitiva. L’uso della pillola è stato autorizzato negli ospedali, come aveva consigliato l’Aifa, fino alla settima settimana di gravidanza, quando invece in altri paesi europei è concesso fino alla nona, quindi con un supplemento di precauzione. La legge sull’interruzione volontaria di gravidanza prevede da sempre la possibilità di introdurre metodiche più avanzate dell’aborto chirurgico, e certo non è l’ingestione di una pillola che rende per le donne meno dolorosa una scelta che non è mai facile”.
Dunque, sottolinea la senatrice del Pd, “Gasparri e il neogovernatore Cota farebbero bene ad evitare minacce e promesse indebite e a rispettare una legge della Repubblica e, con essa, anche tutte le donne italiane e straniere che spesso sono poste di fronte a una scelta difficile. Se poi questi esponenti della maggioranza volessero davvero occuparsi della famiglia e della maternità sarebbero i benvenuti, dal momento che il governo della destra non ha fatto niente, in ben due anni, per sostenere concretamente, e non a chiacchiere ideologiche, le scelte delle donne”.
http://www.aprileonline.info/notizia.php?id=14552
—
La Resistenza va scomparendo
Alba Sasso, 01.04.2010
Lentamente, la Resistenza va scomparendo. Un’azione di demolizione metodica, inesorabile, che negli ultimi anni ha raggiunto livelli mai immaginati prima, sta recidendo le radici che legano la nostra storia all’oggi e al domani, un progetto portato avanti nel tempo, che oggi mette sotto gli occhi di tutti i suoi risultati
La proposta della Gelmini tendente ad eliminare anche il nome della Resistenza- resta solo un più generico “percorso verso l’Italia repubblicana”- dai libri di testo è più che una provocazione, o una boutade. È il perfezionamento di un progetto di egemonia culturale portato avanti da un berlusconismo che, ben lungi dall’essere quella macchietta che troppo spesso abbiamo dipinto, si è rivelato una vera costruzione ideologica, portatrice di valori diversi ed alternativi rispetto a quelli in cui è cresciuta la Repubblica nel dopoguerra. La pochezza di personaggi come l’attuale ministro non deve trarci in inganno. La cancellazione della Resistenza è stata portata avanti nei fatti, prima ancora che nei libri di testo. L’assenza sistematica del premier da tutte le cerimonie non solo del 25 aprile, ma da qualunque cosa sapesse di Resistenza, è stata una goccia che ha scavato un solco, che rischia di diventare una voragine, distruggendo la memoria storica di un paese, la sua identità. Troppo spesso il berlusconismo è stato scambiato per folklore. Ne abbiamo sottovalutato le conseguenze.
Oggi la Gelmini può permettersi gesti di questo tipo senza che vi sia ancora una reazione forte e generalizzata di protesta. Non si tratta di difendere le cerimonie rituali e spesso stanche, che pure sono un mezzo per la conservazione della memoria. Si tratta di lanciare una grande campagna culturale nel paese, riprendendo il tema della Resistenza come identità di una nazione. Oggi paghiamo le concessioni ideologiche, prima ancora che culturali, ad un indistinto buonismo che accomunava i morti di tutte le parti, i “ragazzi di Salò” ai partigiani. Un equivoco storico alimentato anche a sinistra, pensiamo ai recenti film di smaccato revisionismo, senza giustificazioni che non fossero un basso politicismo, che in nome di tattiche di corto respiro sacrificava principi ed ideali. Rilanciare i valori della Resistenza vuol dire oggi riprendere una lunga marcia nel cuore delle giovani generazioni, in primo luogo per far conoscere loro quelle radici.
È questo il primo dato drammatico: i ragazzi, oggi, nella loro grande maggioranza, rischiano di vivere sempre più in un presente vuoto di storia e di futuro.
E la diffusione dei disvalori berlusconiani ha seminato il diserbante delle ideologie, sollecitato il rifugio negli egoismi rassicuranti delle identità minime, il locale e le appartenenze di gruppo.
La battaglia cui dobbiamo impegnarci non è solo quella dei libri di testo, da cui la Resistenza non può e non deve essere espulsa, come in una sorta di “damnatio memoriae”. È una battaglia culturale che non si può esaurire nel breve periodo. C’è bisogno di far vivere i valori di quella stagione, in un paese che non cessa di mandare segnali in questo senso.
La voglia di pulizia e di cambiamento, la sete di moralità e di giustizia, sempre liquidate con la sprezzante definizione di giustizialismo, sono la testimonianza che quei valori esistono ancora, quelle radici non sono state recise. Dovremo innaffiarle e curarle con l’amore per la storia, per la cultura, per il bello. Con il rilancio della Resistenza come epopea di un popolo alla ricerca di libertà e giustizia, riproponendo perfino i modelli di vita di quella generazione, i padri della patria con la loro sobrietà del vivere la politica, con lo spirito di servizio che caratterizzava il loro impegno, con l’inflessibilità sui grandi principi. La grandezza della Resistenza non può essere messa in discussione dalla pochezza di questi figuri. Ma a noi tocca l’impegno di impedire che ci provino comunque.
http://www.aprileonline.info/notizia.php?id=14548
—
Il signoraggio bancario spiegato da magius (magius@magius.info)
Ci sono due truffe: una e’ la riserva frazionata che usano le banche per concedere i prestiti con soldi creati dal nulla, ed una e’ il signoraggio vero e proprio operato dalle banche centrali.
Un esempio fa meglio capire di che si tratta. Il cittadino versa 100 Euro in una Banca (Locale). Sono 100 Euro reali, veri, “sudati”. Questa Banca porta 2 Euro alla Banca Centrale Nazionale (BCN) e si tiene 98
Euro (cash) per le previste (a livello statistico) operazioni di cassa (ad esempio, prelievi di altri correntisti) e per i prestiti successivi.
Abbiamo supposto 2 Euro perche’ la “riserva obbligata” e’ del 2% (in Italia la riserva obbligatoria era del 15% fino alla fine del 1997. In pochi mesi, pero’, essa fu portata al 2% per fare fronte alle necessita’ del sistema bancario che non aveva piu’ fondi per acquistare i titoli del debito pubblico, e per cercare di rilanciare in qualche modo un sistema asfissiato dalla mancanza di liquidità).
In cambio di questo versamento (2 Euro dalla Banca Locale alla BCN), le Banche Locali ricevono l’autorizzazione (da parte della BCN) di prestare 100 Euro pur avendone solo 98 in cassa.
Quindi con i nostri 100 Euro reali la Banca Centrale puo’ acquistare 2 Euro di Titoli di Stato e la Banca Locale puo’ prestare ancora altri 100 Euro al tasso (per esempio) del 10%. Tali prestiti vengono effettuati scrivendo numeri nel computer che gestisce i conti correnti. Stavolta, per la Banca Locale, sparisce anche il costo tipografico (soldi creati da nulla)! Gli interessi (piu’ la restituzione del capitale avuto in prestito) che noi versiamo alla “nostra” Banca Locale sono invece soldi reali in quanto frutto nel nostro lavoro, ossia decine di ore di vita impiegate per determinare un reddito mensile (il nostro stipendio).
Il giochetto viene ripetuto, continuando a prestare, finche’ a colpi di 2% degli iniziali 100 euro non rimane piu’ nulla. Questo meccanismo, nel mondo economico e’ noto con il nome di moltiplicatore dei depositi, normato a livello legislativo. Posto c il valore della riserva obbligatoria. per noi c=2%=0.02 . Con 100 euro si possono prestare 100/c=100/0.02=5000 euro. Per riassumere la banca con 100 euro depositati ne presta 5000.
Margrita’ Kennedy, una economista del centro-studi Hermann Institut Deutschland, ha provato a determinare la quota d’interessi che sono pagati (alle banche) per alcuni servizi pubblici in Germania. Per la
raccolta dei rifiuti (un’attivita’ che impiega poche macchine e molta manodopera), tale quota e’ il 12% del prezzo. Per l’acqua potabile, il 38%. Per l’edilizia popolare, il 77%. In media, su tutti i beni e i servizi, paghiamo il 50% di interessi.
Nei tempi medievali, i sudditi pagavano al signore feudale, o alla Chiesa, “la decima”, ossia solo il 10% dei loro introiti. Oggi paghiamo cinque volte la decima ai prestatori di capitale.
•Veniamo ora al signoraggio.
Il diritto di “signoraggio” e’ il potere del “signore” di emettere biglietti con un valore nominale ampiamente superiore al valore intrinseco e quindi di ricavare un guadagno dalla sovranita’ sulla moneta.
Un po’ di storia della moneta:
– Gli uomini preistorici erano autosufficienti, ovvero ognuno di loro provvedeva alla propria sopravvivenza. Scambiare oggetti, cioe’ barattare, e’ stata la prima forma di commercio e nell’antichita’ si utilizzava un’economia agricola o naturale e i primi baratti riguardavano i prodotti della terra.
Nel baratto si perdeva piu’ tempo ad effettuare lo scambio che nella produzione della merce da scambiare e per rimedio fu necessario aggregarsi in date e luoghi prestabiliti: nacquero i mercati. Nei villaggi le caste si specializzarono per produrre beni specifici da scambiare con altri gruppi. Inizia lo scambio merci organizzato perche’ inizia la specializzazione produttiva. Ogni popolo eleggeva un bene/prodotto come valore di riferimento e gli scambi venivano in base ad esso.
– Il metallo-moneta assunse importanza solo con il crescere del commercio esterno verso altri villaggi o regni, per tale motivo i primi popoli che se ne servirono furono quelli conquistatori, che iniziarono ad affiancare la merce-moneta al metallo-moneta. Inizia cosi il passaggio da economia naturale all’economia monetaria. Tale passaggio fu molto lento e distribuito nel tempo, infatti l’economia naturale rimase presente fino al nostro secolo (in Italia nel 1950 1960 la paga dei braccianti agricoli era ancora in parte in natura).
Fino dall’origine della moneta abbiamo visto che l’autorita’ locale cercava di avocare il diritto alla produzione di moneta. Se nell’antichita’ l’esigenza era solo quella di salvaguardare il commercio stesso ed auto-determinare il proprio potere su altre entita’ politiche, ora vediamo emergere altre motivazioni puramente commerciali. Infatti l’aspetto che spinse l’autorita’ a monopolizzare la produzione monetaria fu il guadagno che si traeva dal Signoraggio ovvero la differenza tra il valore di una moneta ed il suo valore facciale, o nominale, di mercato.
L’accumulo di ricchezza in merce-moneta richiedeva luoghi ove depositarla e custodirla. Gli Orafi furono i primi a diventare custodi per conto dei mercanti da cui ricevevano metalli e preziosi. Il custode compilava una ricevuta di carta. Ad un certo punto gli operatori iniziarono a trasferire la proprieta’ della moneta metallica girando la ricevuta di deposito. Nel momento in cui esse iniziarono a circolare e, soprattutto essere al portatore, nacquero la carta-moneta e le banche.
Presto il banchiere/custode capi che non serviva tenere presso di se tutto quanto depositato ed inizio’ a concedere credito.
– 1694: l’oro viene trasformato in carta dalla banca d’Inghilterra, il cui fondatore William Paterson, dichiara spregiudicatamente: “Il banco trae beneficio dall’interesse su tutta la moneta che crea dal nulla”.
•- 1773: la truffa funziono’ al punto che un secolo dopo si trasformo’ in cinismo, e nel 1773 Amschel Mayer Rothschild, il fondatore tedesco di tale impero finanziario dichiarava addirittura: “La nostra politica e’
quella di fomentare le guerre, ma dirigendo Conferenze di Pace, in modo che nessuna delle parti in conflitto possa ottenere guadagni territoriali. Le guerre devono essere dirette in modo tale che le Nazioni, coinvolte in entrambi gli schieramenti, sprofondino sempre di piu’ nel loro debito e, quindi, sempre di piu’ sotto il nostro potere”.
•- 1885: Marx svela nel Capitale (Libro I, capitolo 24, paragrafo 6, Editori Riuniti, Roma 1974, pp. 817-818) i tratti truffaldini del meccanismo su cui stavano crescendo le banche centrali (“Fin dalla nascita le grandi banche agghindate di denominazioni nazionali non sono state che societa’ di speculatori privati che si affiancavano ai governi e, grazie ai privilegi ottenuti, erano in grado di anticipare loro denaro. Quindi l’accumularsi del debito pubblico non ha misura piu’ infallibile del progressivo salire delle azioni di queste banche, il cui pieno sviluppo risale alla fondazione della Banca d’Inghilterra (1694).
La Banca d’Inghilterra comincio’ col prestare il suo denaro al governo all’otto per cento; contemporaneamente era autorizzata dal parlamento a battere moneta con lo stesso capitale, tornando a prestarlo un’altra volta al pubblico in forma di banconote. Non ci volle molto tempo perche’ questa moneta di credito fabbricata dalla Banca d’Inghilterra stessa diventasse la moneta nella quale la Banca faceva prestiti allo Stato e pagava per conto dello Stato gli interessi del debito pubblico. Non bastava pero’ che la Banca desse con una mano per aver restituito di piu’ con l’altra, ma, proprio mentre riceveva, rimaneva creditrice perpetua della nazione fino all’ultimo centesimo che aveva dato”), ma questo punto rimane inascoltato dai comunisti stessi.
Oggi, le parti sociali non hanno ancora compreso che la riduzione del potere d’acquisto dei salari non e’ imputabile ai datori di lavoro o ai governi, ma alle banche centrali, perche’ solo esse hanno il potere di determinare arbitrariamente spinte inflazionistiche o deflazionistiche, costringendo gli imprenditori o a cessare le attivita’ produttive o ad accettare la flessibilita’, adeguando costi e prezzi alle oscillazioni dei valori monetari che guidano la stessa globalizzazione dei mercati.
In tal modo il principio cardine del regime contrattuale: “Il contratto ha la forza di legge tra le parti” e’ rovesciato nel nuovo principio: “La legge ha forza di contratto tra le parti”. E la legge della moneta non la fa ne’ il datore di lavoro, ne’ il governo, ma il padrone dei (nostri) soldi: il governatore della banca centrale. (Quindi le contestazioni relative alla flessibilita’, non avrebbero dovuto essere sollevate nei confronti dei datori di lavoro, ma nei confronti delle banche centrali, da governo, datori di lavoro e lavoratori, uniti sullo stesso fronte. Le rivendicazioni sindacali basate sul plusvalore sono ormai impossibili perche’, con la globalizzazione dei mercati, viene meno la possibilita’ di un ragionevole affidamento sulla esistenza
stessa del profitto. E cio’ e’ confermato dalle imponenti crisi economiche, ad es., nel settore automobilistico).
•- 22 luglio 1944: gli Stati del mondo disegnano un nuovo sistema monetario in un’anonima localita’ americana, Bretton Woods. In questo nuovo sistema, tutte le monete erano convertibili nel dollaro e solo
questo era convertibile in oro. Allo stesso tempo venne istituito il Fondo Monetario Internazionale (FMI), con lo scopo di venire in soccorso a quei paesi che non potevano sostenere la parita’ determinata a Bretton
Woods tra le monete.
Tali accordi ebbero principalmente tre conseguenze: 1) gli Stati Uniti cominciarono a stampare piu’ dollari che giornali, dato che era la loro moneta a garantire l’equilibrio del sistema; 2) tutti gli Stati del
mondo costituirono riserve per l’emissione di banconote utilizzando dollari, di cui c’era sul mercato finanziario una grande offerta (all’inizio degli anni Settanta, l’80 per cento delle riserve valutarie di tutti gli stati del mondo erano costituite da dollari; 3) il FMI controllava le politiche economiche di tutti i paesi del mondo attraverso il ricatto della leva monetaria. Stati Uniti ed Inghilterra avevano contribuito con l’80% di propri versamenti alla costituzione del FMI, e pertanto ne condizionavano l’attivita’ in maniera determinante.
Il sistema resse senza particolari scossoni fino al 1970. Ogni tanto il FMI interveniva a “aiutare” paesi in difficolta’ con il cambio della propria valuta, obbligandoli a politiche keynesiane per renderli piu’ docili e sottomessi agli interessi delle potenze occidentali.
Lincoln e Kennedy ebbero il coraggio di far battere moneta al governo.
Ma ambedue pagarono caro. Lincoln creo’ le banconote “green-backs”, e venne ucciso poco dopo, nel 1865. Durante la guerra civile americana, i Rothschild di Londra finanziarono il Nord, e i Rothschild di Parigi il Sud. Per ridurre il livello del debito che il suo governo avrebbe affrontato, Lincoln fece quel denaro. Le banconote “green-backs” erano come dovevano – e come dovrebbero essere -, e cioe’ prive di interessi bancari. Cio’ si rilevo’ potenzialmente disastroso per le banche, e se la cosa fosse continuata dopo la guerra e si fosse diffusa in altri paesi, le banche e i banchieri avrebbero perso il loro potere. Lincoln fu assassinato da John Wilkes Booth che, secondo alcuni studiosi, era un agente della Casa Rothschild. Dopo la morte di Lincoln cesso’ ovviamente anche la stampa dei green-backs.
Kennedy propose la stessa soluzione e subito dopo fu anch’egli ucciso a Dallas, in Texas, nel 1963. I suoi obiettivi principali erano di prendere il controllo della moneta della nazione, togliendola dalle mani
delle Banche della Federal Reserve e di terminare cosi la guerra in Vietnam. Il vero motivo del suo assassinio e’ percepibile ad ogni essere umano pensante. Dopo quello storico omicidio il vicepresidente
J.B.Johnson, appena assunta la carica di Presidente, ordino’ infatti il ritiro di tutte le banconote fatte stampare da Kennedy. Kennedy aveva infatti ordinato l’emissione, da parte del Tesoro, di 4.292.893.815 dollari, con banconote che non riportavano più grave la scritta “Federal Reserve Note”, ma quella, invece, di “United States Note”.
•- Il 7 Febbraio 1992 viene firmato il Trattato di Maastricht (entrato in vigore il 1 Novembre 1993) in base al quale vengono fissate le tappe per giungere alla moneta unica. Salutato dai Governi dei dodici Paesi,
dai politici d’Europa e dalla stampa mondiale come una “svolta storica”, come il compimento maturo e irreversibile del processo di integrazione monetaria ed economica, il Trattato di Maastricht e’ il passo decisivo verso la creazione di un grande mercato interno (Ma non dice di chi e’ l’euro e la BCE lo presta ai cittadini di eurolandia).
•- Il 1 gennaio 2002 l’euro diventa moneta corrente per oltre 300 milioni di europei in dodici paesi dell’Unione.
Adesso la BCE comunica a Bankitalia quanti euro stampare e poi li presta allo Stato.
Neanche si riesce a pensarlo ma una volta sottratto il signoraggio alle Banche Centrali (che lo esercitano per consuetudine) si potra’ non solo ripianare il debito ma anche distribuire una quantita’ uguale a quanto stampato ai cittadini (in Brasile dal 01 gennaio 2005 si e’ iniziato a corrispondere mensilmente il reddito di cittadinanza (RDC), cioe’ a ciascun cittadino in quanto tale, a partire dagli appartenenti alle
classi piu’ povere, e poi con il tempo anche a quelli delle altre classi meno disagiate).
—
Idrogeno, scoperto come si produce in natura 02.04.2010
Che fosse possibile produrre idrogeno molecolare, cioè utilizzabile come combustibile, in natura era già noto. Ciò che non si conosceva era il procedimento attraverso il quale alcuni enzimi vi riuscissero. La chiave del “mistero” sono le ferro-idrogenasi, enzimi capaci di catalizzare e produrre l’idrogeno in maniera molto efficiente.
Ora, due studi condotti da alcuni ricercatori del dipartimento di Biotecnologie e Bioscienze dell’Università di Milano-Bicocca, coordinati dal professor Luca De Gioia, hanno svelato con precisione alcuni aspetti fondamentali del meccanismo attraverso il quale le molecole di ferro-idrogenasi, utilizzando ioni di ferro, riescano sia a produrre idrogeno molecolare, sia a comportarsi come delle vere e proprie celle a combustibile convertendolo in energia.
Le ricerche, alle quali ha partecipato anche l’Università svedese di Lund, sono state pubblicate questa settimana sul sito del Journal of the American Chemical Society (http://pubs.acs.org/doi/abs/10.1021/ja1008773 ; http://pubs.acs.org/doi/full/10.1021/ja909194f ).
Fabbriche naturali di idrogeno
In particolare, sono stati chiariti due aspetti chiave della chimica delle ferro-idrogenasi. Prima di tutto, attraverso calcoli molto raffinati, è stato dimostrato che l’enzima possiede un atomo di azoto posizionato in modo funzionale al rapido trasferimento dei protoni verso il sito attivo, ossia l’area dell’enzima nella quale si verifica la reazione di produzione di idrogeno. Inoltre, lo studio ha dimostrato che l’efficienza di questi enzimi nella produzione di idrogeno molecolare e nella sua trasformazione in energia dipende strettamente dalla presenza degli ioni cianuro nelle ferro-idrogenasi.
«Far luce sul ruolo svolto dai vari componenti presenti nel sito attivo delle idrogenasi – dice Luca De Gioia, professore di Chimica Generale dell’Università di Milano Bicocca e coordinatore del progetto – permette di avere una migliore comprensione dei processi metabolici alla base della produzione biologica di idrogeno molecolare. Inoltre, dischiude nuovi e promettenti scenari per la progettazione di catalizzatori di nuova generazione e per il loro utilizzo nelle batterie a combustibile del futuro».
«Lo studio di questi enzimi – aggiungono Maurizio Bruschi e Claudio Greco, ricercatori dell’Università di Milano-Bicocca che fanno parte del team – rappresenta un emozionante viaggio tra i processi metabolici che hanno accompagnato lo sviluppo della vita sulla Terra. Infatti, recenti studi hanno svelato che l’atmosfera del nostro pianeta conteneva idrogeno all’epoca della comparsa dei primi organismi viventi. La diffusione delle idrogenasi tra innumerevoli classi di organismi diversi, anche arcaici, testimonia la versatilità della natura nell’utilizzo delle risorse energetiche, un esempio di cui è importante fare tesoro».
Celle a combustibile ecosostenibili
La realizzazione delle attuali celle a combustibile richiede metalli rari (e quindi estremamente costosi) quali platino e palladio. Questo è uno dei motivi che hanno sinora reso difficile e oneroso un vero e proprio decollo dell’idrogeno come fonte di energia. Per fare un esempio concreto, anche se l’elevato costo del platino necessario è solo una frazione del costo di fabbricazione delle celle a combustibile, basta pensare che la sostituzione di tutto il parco veicoli mondiale con veicoli alimentati a idrogeno richiederebbe una quantità di platino ampiamente superiore alle riserve planetarie. Risulta quindi fondamentale la progettazione di celle a combustibile basate su metalli abbondanti e poco costosi, quali ad esempio il ferro.
Ai vantaggi economici si aggiungono quelli ambientali: infatti il reperimento dei metalli preziosi è anch’esso fonte di inquinamento, derivato dallo sfruttamento delle miniere. Inoltre, l’idrogeno, non presente in natura allo stato molecolare, deve essere per forza ottenuto tramite procedure chimiche, oppure utilizzando sostanze ad elevato contenuto energetico come i combustibili fossili. Tuttavia, questi metodi, oltre ad esaurire risorse non rinnovabili, generano CO2 in elevate quantità, aggravando l’effetto serra. La sostituzione di questi processi con metodi che utilizzano microrganismi come batteri o microalghe, che sfruttano una reazione metabolica come quella delle idrogenasi, abbatterebbe completamente il rilascio in atmosfera di CO2.
L’applicazione più nota al grande pubblico delle celle a combustibile è l’auto a idrogeno, ma esse possono essere utilizzate nei più svariati settori, dalle batterie per cellulari alle centrali elettriche.
L’idrogeno in cifre
Secondo stime recenti, la produzione di idrogeno ammonta a 9 milioni di tonnellate all’anno, per il 95% prodotti dal metano (efficienza energetica del 80%, ma si producono 9 kg di CO2 per ogni kg di H2 ottenuto). Il tasso di crescita stimato per la produzione d’idrogeno è del 10% annuo. Correntemente, la produzione dell’idrogeno avviene per il 48% da gas naturale, per il 30% dal petrolio, per il 18% dal carbone; la produzione di idrogeno dall’acqua viene attualmente impiegata per produrre soltanto il 4% dell’H2
Il team di ricerca
La ricerca è stata condotta dai dipartimenti di Biotecnologie e Bioscienze e di Scienze dell’Ambiente e del Territorio dell’Università di Milano-Bicocca e dall’Università di Lund in Svezia. Il giovane team di ricerca è guidato dal professor Luca De Gioia, coinvolto da oltre dieci anni nello studio di molecole naturali (gli enzimi noti come idrogenasi) e sintetiche in grado di promuovere la produzione di idrogeno molecolare e il suo utilizzo in dispositivi di rilevanza (bio)tecnologica, nell’ambito di studi riguardanti le fonti di energia rinnovabili e sostenibili. Allo studio hanno contribuito il professor Piercarlo Fantucci e i ricercatori Claudio Greco, Luca Bertini, Giuseppe Zampella e Maurizio Bruschi.
Allegati:
Sito attivo dell’enzima di una ferro-idrogenasi
http://www.unimib.it/link/news.jsp?2865374168812320943
—
Il neoliberismo che piace a sinistra
Autore: Mattei, Ugo
Che c’è dietro il rifiuto dei referendum per l’acqua pubblica, al di là delle parole dette. Il manifesto, 6 aprile 2010
Sul manifesto di domenica il presidente di Publiacqua spa Erasmo D’Angelis tesse le lodi del modello toscano di gestione dell’oro blu. Assumiamo pure che la Toscana (o Cuba) siano, per ragioni di cultura politica generale, modelli «virtuosi» di misto.
Questo fatto, proprio come l’argomento per cui in certe realtà italiane a gestione pubblica le cose vanno malissimo, nulla apporta contro la necessità e la superiorità teorica del modello di gestione democratica ed ecologica dell’acqua che si ritiene di poter raggiungere tramite il referendum. Innanzitutto, la presenza di un pubblico disastroso non sta a significare che il suo “commissariamento” da parte del privato sia la soluzione migliore. A parte il fatto che esistono anche esperienze interamente pubbliche estremamente virtuose (mi piace ricordare qui quella di Cuneo), dobbiamo aver ben chiaro che il modello misto pubblico-privato declinato in funzione del profitto, garantito dalla legge Galli e poi da quella Ronchi, costituisce il miglior brodo di coltura dell’affarismo partitocratico ed autoritario. Esso pone le premesse istituzionali per la divisione leonina di costi e benefici (costi pubblici, benefici privati) laddove i secondi non sono solo benefici economici tout court per gli investitori privati (Acea, ecc) ma anche benefici per il personale politico o parapolitico coinvolto nella gestione mista. Si tratta di vantaggi altrettanto privati anche se meno visibili, che si concretizzano in termini di favori privati all’elite politica, se non direttamente in quattrini per le campagne elettorali. Non mi stupisce affatto che questo modello di gestione del “pubblico interesse”, tipico di gran parte del terzo mondo, possa purtroppo aver coinvolto anche l’acqua cubana. Il problema è la confusione fra l’interesse pubblico e quello delle élites politiche.
Ciò naturalmente vale anche per altre questioni, come per esempio la gestione dei rifiuti, e ancor più vistosamente le grandi opere pubbliche come la Tav o il Ponte sullo Stretto. Questo mi pare spieghi sia alcune delle posizioni del Pd, che continua a difendere il misto “for profit garantito” utilizzando la più screditata delle idee, quella per cui i soldi per gli investimenti li metterà il privato, sia la posizione che sta emergendo nell’Idv.
Premesso che nel Pd esistono posizioni apertamente referendarie quali quella di Roberto Placido, premiato con oltre 11.000 preferenze nel disastro del centrosinistra piemontese, mi pare chiaro che la posizione dei cosiddetti ecodem può soltanto considerarsi ipocrita. Ma come si fa a pensare che nel Parlamento più impotente della nostra storia repubblicana, dove una maggioranza trasversale larga come poche altre difende per le ragioni suddette il “misto for profit garantito” (dall’acqua all’ energia, alle grandi opere) possa avere qualsiasi speranza di passare una riforma che non garantisca al 100% i saccheggiatori del bene comune? Proprio questa osservazione ha convinto l’ intero arco di forze del “Forum Acqua Pubblica” ed il “Comitato Rodotà sì acqua pubblica” a convergere convintamente sulla soluzione referendaria. Realisticamente, infatti, tanto la legge di iniziativa popolare sull’acqua voluta dal Forum, quanto il progetto di legge delega sui beni pubblici della Commissione Rodotà non avrebbero forza politica sufficiente in questo Parlamento se non sostenuti da un imponente movimento di massa quale quello che potrebbe essere innescato dal referendum. A maggior ragione il referendum convince tutti quanti hanno a cuore il vero interesse pubblico (non quello delle élites di partito), per il fatto che i tre quesiti che abbiamo elaborato, attaccando direttamente il modello di gestione mista “for profit garantito”, pongono serie premesse teoriche per un nuovissimo modello di governo ecologico e democratico dei beni comuni, ispirato all’art. 43 della Costituzione, che finalmente inverta la rotta neoliberista.
E veniamo a Di Pietro. Ero presente con i compagni del Forum all’incontro con l’Idv (Di Pietro, De Magistris, Brutti) del 12 marzo scorso e. pur nello sconforto generale per un clima davvero povero dal punto di vista democratico, ero rimasto favorevolmente colpito per il fatto che Di Pietro avesse detto espressamente di voler far propri i nostri tre referendum. Su premesse comuni culturalmente e politicamente così nette e avanzate, avevo ragionato, si troverà certamente un’intesa di metodo. Mi ero sbagliato. Credo ora semplicemente che Di Pietro, fatti due conti, si sia reso conto di essere ormai parte di quell’élite politica il cui interesse privato, come quello di tutto il fronte partitocratico antireferendario, è ben servito dal “misto for profit garantito”. Come dicono i resistenti della Val Susa: sarà dura!
http://www.eddyburg.it/article/articleview/14944/0/285/
---
6/4/2010 – QUEL CHE CONTA È RICORDARSI DI DIMENTICARE
Un viaggio nel futuro degli archivi
Con i supporti digitali rischiamo overdose di memoria. Cosa tenere e cosa buttare? Un convegno a Torino
MARIO BAUDINO
Ogni giorno la grande biblioteca on line Archive.org registra testi, video, filmati, audio e software, insomma tracce di memoria, che superano in quantità tutto quel che è stato immagazzinato nell’intera storia dell’uomo. O almeno, così dicono, ma è probabile che sia vero. Nello stesso tempo le nostre città producono una mole di rifiuti tale per cui, secondo i calcoli dell’agenzia europea per l’ambiente, se entro il 2020 volessimo spargere sul suolo tutti quelli dell’Ue (340 milioni di tonnellate) copriremmo la superficie del Lussemburgo con uno spessore di 30 centimetri, oppure quella di Malta con due metri e mezzo. Le montagne di pattumiera racconteranno per secoli la nostra storia.
Potranno forse spiegare come il presente sembri irrimediabilmente strozzato fra una enorme quantità di tracce «immateriali», tendenzialmente destinate a perdersi, e un’altrettanto smisurata invasione di rifiuti materiali che stanno in qualche modo ostruendo il futuro. A questi temi la fondazione Telecom Italia dedica un convegno (al Politecnico giovedì e venerdì prossimi), con studiosi internazionali di tutto quel ventaglio di discipline che ruotano intorno ai temi della memoria. Che può diventare essa stessa un «rifiuto», come spiega Pierluigi Musarò, docente a Forlì e studioso di quella scienza che viene definita «garbology», e studia appunto i rifiuti.
La domanda è: con quali fonti si farà la storia del nostro presente fra cinquant’anni? Solo con i nostri rifiuti? La risposta non è oziosa. Si tratta di cominciare, come spiega Chiara Ottaviano, curatrice dell’Archivio storico Telecom Italia, a «fissare un punto di osservazione» sulla proliferazione di archivi che segna questo momento di passaggio: «Da un mondo fatto di memorie oggettuali concrete a uno fatte di memorie che vengono create e distrutte in continuazione». E’ il mondo del Web 2.0, dove, come spiega il segretario generale della Fondazione, Fabio Di Spirito, si pone il problema di che cosa conservare, e come, per esempio nel ricchissimo archivio storico Telecom Italia: lo stesso convegno è parte di un progetto per la sua valorizzazione. Ma è ovvio che in prima istanza si guardi al macrocosmo, alla prospettiva planetaria.
Conservare tutto, anche nel mondo del Web 2.0, è impossibile. Una memoria totale ci sommergerebbe proprio come stanno facendo i rifiuti. Dimenticare è importante come ricordare. Eppure col proliferare dell’informazione è come se l’imperativo fosse sempre più quello di non dimenticare nulla. Ma in parallelo con il senso di oppressione per l’enorme quantità di informazioni, è però largamente condivisa, come dice ancora la professoressa Ottaviano, una diffusa sensazione di perdita.
La contraddizione è solo apparente. Mentre sul piano della coscienza diffusa sembra cadere l’attenzione per la storia, si fa sempre più viva quella per la memoria, soprattutto locale, magari privatissima. Di che memoria si tratta, alla fine? Il sociologo Paolo Jedlovski (che studia in particolare il tema di quella collettiva) chiarisce che il problema esiste da sempre, nella storia umana. Ma la società moderna lo ha reso particolarmente importante. «Oggi il vero nodo è quello di salvare la pluralità delle interpretazioni e anche la conoscenza», perché più una società è complessa, più crea immagini del passato alternative fra loro. «L’imperativo è distinguere i fatti dalle interpretazioni, per quanto è possibile»; ma è indubbio che la nostra stessa conoscenza del passato è assai ricca di «fatti bruti» costruiti a posteriori, come accade per esempio nelle tradizioni religiose.
«C’è però una differenza: un tempo si costruiva il passato, si inventavano appunto, per usare la terminologia dello storico scozzese Eric Hobsbawm, le tradizioni. La possibilità di farlo dipendeva in buon parte dall’assenza di documentazione». Oggi tutti possono «scavare», se lo desiderano. «Il problema è semmai l’eccedenza», anche se è un’eccedenza strana. Prendiamo, ovviamente, il caso della posta elettronica, che ha sostituito le lettere scritte su carta. «La tendenza sembra quella di una scarsa propensione a conservare le tracce on-line», spiega lo studioso. I dialoghi via e-mail o attraverso i social network «sono forme di conversazione che somigliano più a conversazioni orali» e come tali tendono a svanire molto presto.
Tra accumulo vertiginoso e perdita rapidissima, che cosa resterà allora di noi alle generazioni future, sempre ammesso che siano ancora interessate alla storiografia? «Tutte le tecnologie della conservazione sono in movimento. In realtà non sappiamo bene che cosa succederà». Viene alla mente un passo di Cees Nooteboom, il grande scrittore olandese. In uno dei suoi libri più lodati dalla critica, Rituali (tradotto in Italia per Iperborea) a un certo punto parla proprio di questo. Così, per inciso. Quasi distrattamente. «La memoria – scrive – è come un cane, che si accuccia dove vuole».
Al Politecnico la Fondazione Telecom
La Fondazione Telecom Italia fa una sorta di viaggio nel futuro. Il convegno che si terrà al Politecnico di Torino giovedì e venerdì prossimi a partire alle ore 9 ha per titolo infatti: 2060: con quali fonti si farà la storia del nostro presente? Partecipano studiosi di varie discipline: storici, sociologhi, archivisti, informatici. L’olandese Inge Angevaare, ad esempio, illustrerà il progetto per la conservazione digitale varato dal governo dei paesi Bassi di cui è coordinatrice. Intervengono, tra gli altri, Vittorio Marchis, Paolo Jedlowski, Serge Noiret, Pierluigi Musarò, Maurizio Ferraris, Stefano Vitali, Tommaso Detti e molti giovani studiosi.
—
Riforma delle istituzioni e confusione mentale
Felice Besostri, 06.04.2010
Non credo che la riforma delle nostre istituzioni, a cominciare dalla forma do governo, debba essere al primo posto dell’agenda politica, quando le crescenti diseguaglianze, l’impoverimento della stessa classe media e l’insicurezza su futuro proprio e dei figli e nipoti colpiscono e assillano la maggioranza degli italiani. Il segnale è stato dato dal crescente astensionismo e dal voto per liste anti-partitiche, quando non anti-politiche, delle ultime regionali
Tuttavia c’è un teatrino della politica con le sue regole: chi si volesse sottrarre al confronto entrerebbe nel tritacarne mediatico come un conservatore dell’esistente senza un’idea e un progetto di riforma. Quindi si discuta anche di riforme delle istituzioni e di emendamenti alla Costituzione senza preconcetti del tipo “La Costituzione non si tocca”. Quando il veto proviene da formazioni politiche che hanno contribuito a violentarla con le modifiche alle leggi elettorali e dei metodi di scelta dei vertici esecutivi, PD e IdV compresi, non si è credibili: e la credibilità è la prima cosa da ristabilire nei rapporti tra classe politica ed elettori.
Dunque riforme condivise, ma da chi? Le sole forze presenti in Parlamento non rappresentano la società italiana nel suo complesso e nella sua complessità: sono il prodotto di un bipolarismo artificiale imposto con leggi elettorali furbe. Tuttavia, proprio perché le riforme istituzionali non sono la priorità, non si giustifica il ricorso a un’assemblea costituente, peraltro di dubbia costituzionalità e di difficile praticabilità.
L’allargamento del dibattito sulle riforme si può ottenere coinvolgendo i consigli regionali, che hanno un più alto grado di pluralismo politico, il CNEL, previa una sua ricomposizione e le Università, con speciale riferimento alle facoltà di Giurisprudenza, Scienze Politiche ed Economia.
Un prerequisito è indispensabile che si sappia di cosa si debba discutere, che è altrettanto importante del chi debba discutere. Sul punto la confusione ai vertici politici e sui mezzi di comunicazione è totale. Si parla di riforma in senso presidenzialista indifferentemente riferendosi al presidenzialismo, al semi-presidenzialismo e all’elezione diretta del Primo Ministro. Qualsivoglia studente universitario, che si presentasse agli esami di Diritto Costituzionale o di Diritto Pubblico Comparato con questa confusione in testa, sarebbe invitato a ripresentarsi dopo aver studiato di più e meglio.
Per chiarezza si dovrebbe sgomberare il campo dall’elezione diretta del Primo Ministro: se l’unico stato che l’ha adottata, Israele, l’ha abbandonata dopo pochi anni significa che non funziona ovvero ha bisogno di un parlamento composto da figuranti scelti direttamente dal Primo Ministro.
Il porcellum,con le sue liste bloccate e l’indicazione del capo politico della lista o coalizione di liste, ha già prodotto tutti i danni che poteva, non merita di essere rafforzato: un Primo Ministro non è un Sindaco d’Italia.
L’alternativa resta tra presidenzialismo e semi-presidenzialismo, purché si chiarisca, che si tratta di presidenzialismo statunitense e semi-presidenzialismo francese e non di presidenzialismo venezuelano o di semi-presidenzialismo russo.
Ogni progetto di riforma deve avere, almeno, chiaro quali obiettivi si propone e quali difetti eliminare: non è sufficiente dare maggiori poteri al vertice del potere esecutivo come giustificazione: Gran Bretagna, Spagna e Germania hanno primi ministri forti con una forma di governo parlamentare e senza una loro elezione diretta. In Italia il problema maggiore è rappresentato dalla inefficienza (voluta) del Parlamento, perché il Governo gode di una formale maggioranza schiacciante nelle due Camere. Le Camere non hanno una dignità politica riconosciuta, perché composte da nominati e non da eletti e per di più, nel caso del Senato, con una presidenza, che non ne tutela la funzione, perché prona a ogni desiderio del Primo Ministro. Presidenzialismo vero significa netta separazione dei poteri, quindi un Presidente forte con un Parlamento autorevole, ognuno con la propria legittimazione popolare.
Il presidente negli USA non può sciogliere il Congresso, che può avere una maggioranza politica diversa o addirittura avversa.
Se si vuol ridare dignità al parlamento italiano una riforma presidenziale è meglio di una semi-presidenziale, che escluda ogni forma di coabitazione, come è quello francese dopo le riforme sarkoziane: coincidenza di durata di presidente e parlamento ed elezioni presidenziali, che precedono e condizionano quelle legislative. In Italia mancano altre condizioni, che rendono equilibrato il presidenzialismo statunitense, quali un sistema informativo indipendente dal potere politico e una forte società civile, malgrado le lobby.
Tali condizioni sarebbero assenti anche con una forma di governo semi-presidenziale, quindi tanto vale scegliere il male minore, cioè quello che meno mortifica il parlamento.
Il presidenzialismo è, inoltre, la forma di governo, che meglio garantisce l’unità nazionale in una forma di stato federale o con fortissime autonomie, come è il caso italiano dopo la riforma del Titolo V della Parte Seconda della Costituzione nelle XIIIa Legislatura. Le Regioni italiane hanno maggiori competenze legislative dei Länder tedeschi e nelle materie di legislazione concorrente In Italia non c’è un principio equivalente a quello tedesco per cui “Bundesrecht bricht Landesrecht”, cioè il diritto federale prevale su quello regionale.
In Germania i Länder non possono, come in Italia, attentare all’unità nazionale costituendo tra loro organi comuni senza necessità di una approvazione statale. Nel semi-presidenzialismo il Governo ha bisogno della fiducia parlamentare e quindi il presidente, ancorché eletto dal popolo, è condizionato dalla sua maggioranza, al massimo grado se è una maggioranza di coalizione.
Se presidenzialismo e federalismo sono all’ordine del giorno non ha senso ridurre il bicameralismo, come tutti sarebbero d’accordo. In uno stato federale le due Camere hanno poteri differenziati, ma non ce ne una più importante dell’altra. Prima di iniziare a discutere di testi di riforma si dovrebbe chiedere alla maggioranza di PdL e Lega chiarezza, cominciando l’opposizione a porre dei paletti, non sull’esito finale, ma proprio sull’avvio della discussione: se sul tavolo ci sono presidenzialismo e federalismo si facciano scelte coerenti e non pasticci, che vanno bene soltanto alle nomenklature dei partiti.
http://www.aprileonline.info/notizia.php?id=14573
—
Omeopatia: in Gran Bretagna chiedono di bloccare i finanziamenti e in Italia l’ISS avvia una campagna informativa 10 e 16.03.2010
Omeopatia sotto osservazione in Gran Bretagna. Un Comitato Scientifico ha concluso che l’omeopatia provoca lo stesso effetto di un placebo e che quindi non dovrebbe ricevere finanziamenti pubblici.
Nel rapporto presentato al Parlamento Britannico si richiede non solo di sospendere i finanziamenti pubblici all’omeopatia, ma anche di studiare nuove norme che regolino l’etichettatura dei farmaci omeopatici per evitare equivoci e false aspettative nelle loro capacità terapeutiche.
Anche in Italia il dibattito è aperto. L’Istituto Superiore di Sanità ha calcolato che dal 2002 si sono verificati quattrocento casi di pazienti che, a seguito dell’assunzione di prodotti della medicina alternativa, hanno avuto disturbi, anche gravi, sono stati ricoverati e tre di essi sono deceduti.
Secondo quanto riferito dall’ISS nel 70% dei casi le medicine assunte erano estratti di piante medicinali, ma nel 34% dei casi sono state assunte insieme ad altri farmaci convenzionali e questa interazione sarebbe alla base dei disturbi conseguenti.
Problemi gastrointestinali, disturbi alla cute, al fegato e al sistema nervoso: sono soprattutto questi gli effetti collaterali registrati nella gran parte dei casi che hanno spinto l’ISS ad avviare una campagna di informazione mirata a ricordare che anche i prodotti della medicina alternativa possono essere pericolosi, se assunti senza controllo medico e in dosi e modalità scorrette e che possono agire causando reazioni anche gravi, oltre che compromettere le capacità terapeutiche dei farmaci convenzionali che si stanno assumendo in concomitanza.
La necessità di informare e di ridurre al minimo dubbi ed equivoci nasce anche dal fatto che il mercato della medicina alternativa registra un trend in netta crescita.
Già una indagine dell’ISTAT, condotta nel 2005, rese noto che il 13,6% della popolazione intervistata dichiarava di aver usato metodi di medicina alternativa nei tre anni precedenti (il 7% aveva fatto ricorso all’omeopatia, il 6,4% si era sottoposto a sedute di osteopatia e chiropratica, il 3,7% aveva usato prodotti fitoterapici e l’1,8% l’agopuntura).
Il dato che può preoccupare, però, è quello relativo all’assunzione di farmaci omeopatici e convenzionali insieme: è un’abitudine per il 73,5% dei cittadini che usano la medicina alternativa. Più recente la fotografia scattata da Omeoimprese: nel 2009 il mercato dell’omeopatia ha fatto registrare un picco di +6% e nell’ultimo decennio il numero di pazienti che si affidano all’omeopatia è passato dal 10,6% al 18,5%.
L’associazione che raggruppa 18 aziende produttrici di medicinali omeopatici ha ricordato che dal 1997 in Italia è attivo un sistema di farmacovigilanza sui medicinali omeopatici e che in 13 anni non sono stati registrati effetti collaterali gravi legati al loro consumo: “occorre saper distinguere con molta attenzione i prodotti di origine naturale e i medicinali omeopatici, che per il loro metodo specifico di produzione contengono il principio attivo in quantità non tossiche e propedeutiche alla risoluzione della malattia“, ha chiarito Fausto Panni, presidente di Omeoimprese.
Gli ha fatto eco anche l’Associazione Italiana di Omotossicologia, che raggruppa migliaia di medici che prescrivono sia medicine convenzionali che alternative. Il presidente dell’associazione Leonello Milani ha ricordato che i prodotti omeopatici sono farmaci a tutti gli effetti e che naturalmente vanno assunti nelle dosi e modalità corrette, ma ha anche sottolineato come siano decine di migliaia le segnalazioni di reazioni avverse ai farmaci convenzionali che giungono ogni anno ai centri antiveleni e che fare allarmismi su prodotti che vengono usati da milioni di italiani può rivelarsi inutile e controproducente.
ALTRI CONTENUTI DA CONSULTARE:
Fonti
Il commento
Dott. Francesco Candeloro
Medico Chirurgo Specialista in Medicina alternativa (agopuntura, omeopatia, fitoterapia…)
Ogni anno torna d’attualità la polemica sui rimedi omeopatici e il loro supposto effetto placebo.
A nulla sembra valere la menzione di dati numerici che indicano un sempre maggior ricorso a questo tipo di medicina da parte della popolazione, con dati che tendono annualmente alla crescita, cosa che ne confermerebbe l’efficacia.
L’accusa rivolta alla medicina omeopatica, in particolare, tra le medicine alternative quella senza dubbio maggiormente oggetto di critica da parte della medicina tradizionale, è che le sostanze utilizzate sono a tal punto diluite, che non vi si possono rintracciare molecole in grado di giustificare, almeno da un punto di vista biologico molecolare, il meccanismo d’azione e l’efficacia dei rimedi, i quali agirebbero sì, ma grazie ad un semplice effetto placebo.
E’ proprio qui il nocciolo della questione: fintanto che si rimane su di un piano strettamente molecolare, è impossibile arrivare a comprendere il meccanismo d’azione dei rimedi omeopatici e soprattutto delle diluizioni più spinte; tuttavia la fisica quantistica ha confermato che, a livello ultramolecolare, la materia è fatta di particelle infinitesimali che si dispongono secondo quanti di energia: sarebbe dunque proprio l’interazione di questa parte utramolecolare della materia, spiegata dalla fisica, ad apportare significative differenze nella struttura originaria del solvente acqua, modificazioni che i movimenti di agitazione intensa cui è sottoposta la soluzione, avrebbero la capacità di rendere permanenti.
Per comprendere, o cercare, almeno in parte, e con quella ippocratica compassione che dovrebbe guidare ogni buon medico, l’azione delle diluizioni omeopatiche più spinte, è dunque necessario spostare il nostro campo di osservazione dalla biologia molecolare alla fisica quantistica, che ordina e sostiene le reazioni biochimiche del nostro organismo.
Certo molti sono ancora i passi evolutivi da compiere in tal senso, ma esiste già un ramo specialistico della medicina, la medicina quantistica, appunto,che utilizza le conoscenze della fisica per curare alcune malattie anche gravi. Si tratta dunque di compiere un balzo scientifico in avanti, per cercare di comprendere, nelle sue parti sempre più infinitesimali, la complessa realtà umana, e applicarvi una terapia, come quelle omeopatica che, quando sapientemente utilizzata, non può nuocere in alcuna maniera all’essere umano, ma anzi è l’unica che può rispettarne completamente e fedelmente la sua natura.
E’ auspicabile dunque che programmi governativi, partendo proprio dal supposto effetto placebo alla base dei successi terapeutici che hanno moltiplicato i pazienti che ricorrono all’omeopatia, incrementi i proventi governativi per approfondire gli studi sull’uomo e la sua realtà dinamica esistenziale, che solo l’omeopatia può rivelare, tanto nella stato di salute come in quello di malattia.
—
Rispondi