LE CRISI AMBIENTALI GLOBALI
Alberto Di
Fazio
Osservatorio
Astronomico di Roma e
Global
Dynamics Institute
1.
INTRODUZIONE
Può
essere interessante iniziare subito con una citazione dal libro di Meadows et
al. Beyond the Limits (Earthscan,
1992), di cui parlerò più avanti (pag. 25), dove viene presentata, nello
“Scenario 1”, una simulazione del mondo nel caso in cui nulla viene fatto, da
parte di governanti e potere industriale, per porre rimedio a quelle che
vengono ora unanimamente riconosciute come le “crisi ambientali globali”; è il
cosiddetto scenario “Business as usual” (BAU).
“In questo scenario la società mondiale procede per il suo cammino storico, il più a lungo possibile, senza fare alcun cambiamento politico importante. La tecnologia continua ad avanzare nei settori dell’agricoltura, dell’industria e dei servizi sociali secondo gli schemi prestabiliti. Non viene fatto nessuno sforzo particolare per combattere l’inquinamento o per preservare le risorse naturali. Il modello di mondo, nella nostra simulazione, cerca di trascinare la popolazione mondiale attraverso la transizione demografica e di inserirla in un’economia industriale e poi post-industriale. Questo modello si fa carico della sanità pubblica e del controllo delle nascite, via via che cresce il settore dei servizi; aumenta gl’investimenti nell’agricoltura ed ottiene raccolti maggiori, via via che cresce il settore dell’agricoltura; emette più sostanze inquinanti ed esige sempre più risorse non rinnovabili, via via che cresce il settore industriale.
“La popolazione mondiale in questo scenario cresce da 1.6 miliardi nell’anno 1900 a più di 5 miliardi nell’anno 1990 ed a più di 6 miliardi nell’anno 2000. Il prodotto industriale mondiale lordo si espande di un fattore 20 tra il 1900 e il 1990. Tra il 1900 e il 1990 viene consumato solo il 20% delle risorse non rinnovabili mondiali; l’80% di queste risorse è ancora intatto nel 1990. L’inquinamento in quest’anno, nella nostra simulazione, ha appena cominciato ad aumentare in maniera rilevante. In media i beni di consumo pro capite raggiungono un valore (in dollari del 1968) di $260 per persona per anno –una cifra utile da ricordare per confronti con simulazioni future. La durata media della vita sta aumentando, i servizi ed i beni pro capite aumentano, la produzione di cibo aumenta. Ma cambiamenti cospicui si delineano di lì a poco.
“In questo scenario, ad un certo punto, la crescita economica si arresta ed inverte l’andamento, a causa di una combinazione di limitazioni. Subito dopo l’anno 2000 l’inquinamento aumenta tanto da cominciare a danneggiare seriamente la fertilità della terra. (Questo potrebbe succedere nel ‘mondo reale’ per la contaminazione da metalli pesanti o da sostanze chimiche persistenti, a causa del cambiamento climatico, o a causa dell’aumento dei livelli d’intensità dei raggi ultra-violetti dovuto alla diminuzione dello strato dell’ozono). La fertilità della terra diminuisce soltanto del 5% tra il 1970 e il 2000, ma risulta avere un tasso di diminuzione del 4.5% all’anno nel 2010 e del 12% all’anno nel 2040. Contemporaneamente aumenta l’erosione della terra. La produzione totale di cibo comincia a crollare dopo il 2015. Con il risultato che l’economia deve aumentare gl’investimenti nel settore dell’agricoltura per mantenere il livello della produzione. Ma l’agricoltura deve competere, quanto agl’investimenti, con il settore delle risorse naturali che pure comincia a risentire di alcune limitazioni.
“Nel 1990 le risorse non rinnovabili rimanenti sotto terra sarebbero durate 110 anni al tasso di consumo del 1990. Non si evidenziava nessun limite serio alle risorse. Ma arrivando al 2020 le risorse rimanenti costituiscono un serbatoio di soli 30 anni. Perché si verifica un così repentino calo? Perché una crescita esponenziale fa diminuire le risorse e fa aumentare il tasso di consumo allo stesso tempo. Tra il 1990 e il 2020 la popolazione aumenta del 50% e il prodotto industriale cresce dell’85%. Il tasso di consumo delle risorse non rinnovabili raddoppia. Durante i primi vent’anni del XXI secolo, nella nostra simulazione, la popolazione in aumento e l’impianto industriale consumano tante risorse non rinnovabili quante l’economia globale ha consumato nell’intero secolo precedente. Una tal quantità di risorse è stata consumata che è necessario investire molto più capitale ed energia per individuare, estrarre e raffinare ciò che rimane.
“Via via che diventa sempre più difficile ottenere cibo e risorse non rinnovabili, in questo mondo simulato, una quantità sempre maggiore di capitale è spostato e indirizzato ad ottenerli. Questo implica che ci sono meno profitti da investire nell’accrescimento del capitale.
“Infine l’investimento non riesce a tenere il passo con il deprezzamento (questo è l’investimento e il deprezzamento fisico, non monetario). L’economia non può smettere d’investire nei settori delle risorse e dell’agricoltura; se lo facesse la scarsità di cibo, di materie prime e di combustibile limiterebbe ancora di più la produzione. Dunque comincia il declino dell’impianto industriale capitalistico, portandosi dietro i settori dei servizi e dell’agricoltura; i quali sono diventati dipendenti dagl’investimenti industriali. Per un breve periodo la situazione è particolarmente seria, perché la popolazione continua ad aumentare, a causa del ritardo implicito nella struttura delle età e nel processo di adattamento sociale. Alla fine, però, anche la popolazione comincia a diminuire, perché il tasso di mortalità è spinto in alto dalla mancanza di cibo e di strutture sanitarie.”[pp. 132-134, Meadows]
E questa che segue è la figura originale che accompagnava il brano, che per ora non commenterò ulteriormente:
Dunque già da questo brano si può avere un’idea di che cosa siano le crisi ambientali globali, tra le quali tratterò in particolare, in questo articolo, della crisi climatica e della crisi energetica, per poi dare qualche cenno delle altre. Inizio perciò a elencarle, insieme agli schieramenti economici, negoziali e militari ad esse connessi. Nonostante che molte siano interconnesse, la classificazione tiene conto di diversi problemi e minacce da esse poste all’umanità intera. L’ordine è quello che viene riconosciuto dalle competenti organizzazioni delle Nazioni Unite (UN), come ad esempio WMO[BG1][BG2][1], UNEP[2], UNFPA[3], FAO[4], WHO[5], IFAD[6], etc.(e che a sua volta ad esse viene suggerito da diverse organizzazioni scientifiche di settore, coordinate dall’ICSU[7]):
·
1.
CRISI CLIMATICA
·
2.
CRISI ENERGETICA
·
3.
DEFORESTAZIONE
·
4.
CRISI IDRICA
·
5.
CRISI DEMOGRAFICA
·
6.
DESERTIFICAZIONE
·
7.
PERDITA DELLA BIODIVERSITÀ
·
8.
CRISI AGRICOLA: EROSIONE E RIDUZIONE PROGRESSIVE DELLA SUPERFICIE ARABILE
·
9.
PROGRESSIVO E RAPIDO CALO DELLE RISERVE ITTICHE.
Non abbiamo ovviamente
elencato tutte le crisi ambientali globali, ma quelle più rilevanti per il
presente contributo. Non forniremo qui che una sintetica descrizione dei punti
più importanti.
SITUAZIONE
- A livello negoziale:
Vi
sono Convenzioni Quadro (veri e propri trattati sulle modalità di negoziazione
in sede UN) solo per la crisi climatica, la deforestazione, la desertificazione
- quest’ultima firmata a Roma nell’autunno 1997 - e la biodiversità.
Nell’ambito delle Framework Conventions operano le COP (Conference of the
Parties), veri e propri parlamenti mondiali in cui si prendono le decisioni
operative (trattati, provvedimenti economici, controlli e sanzioni). Molto
famosa è la UNFCCC[8], la cui COP3
a Kyoto nel dicembre 1997 ha adottato il Protocollo di Kyoto, primo esempio
nella storia in cui il mondo scientifico ha forzatamente indotto l’attivazione
di un trattato globale legalmente vincolante per un problema ecologico globale
le cui soluzioni non sono ottenibili tramite meri shifts tecnologici[9].
Sono in negoziazione i meccanismi economici, quelli di controllo e il sistema
di sanzioni. Nonostante l’estrema
gravità, non sono ancora neanche
contemplate Convenzioni Quadro - né negoziazioni - sulla crisi energetica,
sulla crisi demografica e sulla crisi idrica. La Convenzione sulla deforestazione non ha ancora un
vero e proprio organo decisionale-negoziale.
Gli schieramenti :
à
il
G77&China (il gruppo
maggioritario, di circa 140 paesi su 180, rappresentante circa l’85%
dell’umanita’, guidato in maniera universalmente riconosciuta dalla Cina e
comprendente il sottogruppo dell’Africa, oltre all’India, ai paesi dell’OPEC,
la quasi totalità dei paesi sud-americani
e tutti quelli asiatici meno il Giappone e la Corea del Sud[10])
à
l’ Unione Europea
à
La
Federazione Russa e il resto dei paesi CSI (ex-URSS meno i tre piccoli
stati Baltici)
à
lo
“Umbrella Group” o JUSCANNZ (dalle
iniziali di Japan, United States, Canada, New Zealand), comprendente anche
l’Australia. Questo schieramento porta avanti in pratica gli interessi
statunitensi
- A livello economico:
Gli
interessi sono grosso modo divisi tra paesi in via di sviluppo (PVS) e paesi
industrializzati. Ogni tipo di crisi coinvolge uno opportuno dosaggio e
redistribuzione di risorse del pianeta, ad esempio: i) la quota
nazionale di energia, sotto forma di combustibili fossili, utilizzabile per
unità di tempo senza impedire la riduzione di emissioni di anidride carbonica e
di altri gas di serra; ii) la quota di petrolio e gas naturale
utilizzabile nel quadro della diminuzione tendenziale del tasso di estrazione,
senza minacciare il fabbisogno vitale di altri paesi e/o blocchi militari; iii)
il tasso massimo di deforestazione da applicare a scopi agricoli e
commerciali senza superare il tasso di ricrescita e quindi le capacità di
assorbimento di CO2 e la capacità di regolare il tasso di umidità; iv) il flusso di acqua necessario alle
attività industriali, metropolitane ed agricole senza però intaccare la quota
dei paesi confinanti e che condividono gli stessi bacini idrografici; v)
il tasso di crescita demografica massimo tollerabile senza aggravare le
crisi 1–4 e 6,7, etc. etc.
Le soluzioni per le crisi
1-4 e 7 sono tutte inconciliabili
con la crescita economica, e quindi incompatibili
con il vigente sistema di mercato. Ciò schiera una serie di organizzazioni
intergovernative occidentali potenzialmente (e in alcuni casi effettivamente)
contro l’applicazione delle soluzioni.
Diamo un breve elenco degli schieramenti
economici:
¨
G7
(Russia a parte, il G8 è solo formale nelle decisioni sostanziali)
¨
OECD[11] (OCSE)
¨
OPEC[12]
¨
ASEAN[13]
¨
IMF[14]
(UN ma in realtà portavoce di Washington, Wall Street, e in misura molto minore
di UK e Giappone)
¨
NAFTA[15]
¨
IEA[16]
¨
(UN): UNCTAD[17], UNIDO[18], World Bank
- A livello militare:
Esistono
una serie di potenze, patti ed alleanze varie che, come vedremo, giocano un
ruolo fondamentale nell’ambito del dominio delle risorse e - in definitiva -
della “gestione” delle crisi sopraelencate. Alcune, e in particolare quelle
imperniate intorno agli Stati Uniti d’America, sono costruite per imporre una dominanza che tende a risolvere le crisi suddette tentando di garantire
la sopravvivenza di una parte del cosiddetto Occidente.
Elenchiamo brevemente gli schieramenti
ed alleanze più importanti:
*
US
*
NATO
*
Alleanza
Federazione Russia-Cina-India
*
Alleanza US-Japan-Korea e - anche se non
ufficialmente- Taiwan
L’Unione
Europea (EU) non possiede - come è noto - un proprio dispositivo militare,
anche se - come vedremo - le sue posizioni ed interessi strategici e a medio
termine nel gestire le su elencate crisi non
coincidono (e anzi sono contrapposti) con quelli degli US. Quest’ultimo fatto è
confermato dal fatto che le posizioni negoziali dell’EU sono praticamente
sempre in conflitto con quelle del JUSCANNZ negli scontri sui trattati sulle grandi crisi ambientali 1-4
e 6-7. È da segnalare il trattato militare per il secolo a venire stipulato da
Cina e Federazione Russa nel 1997, a cui si è aggiunta l’India meno di un anno
fa.
Il progettato sistema
missilistico US-Japan-Korea, con l’istallazione di missili anche su Taiwan
costituisce una minaccia per la Cina e per l’alleanza “Asiatica” sopra
descritta, oltre che una minaccia di destabilizzazione nucleare per tutto il
mondo.
Prima
di vedere che ruolo hanno queste alleanze e che minacce ne vengono alla pace e
infine come esse giocano nel conflitto dei Balcani, esaminiamo i dati, la
natura e la rilevanza delle crisi globali sopra descritte. Nel descrivere i dati trascurerò
dapprima i cenni storico-scientifici, che tratterò in seguito. Mi limiterò qui
invece a descrivere i dati e i processi su cui è stato raggiunto consensus scientifico nella comunità
scientifica internazionale (ICSU).
2.
LE GRANDI CRISI AMBIENTALI
GLOBALI IN ATTO
2.1 CRISI CLIMATICA.
I dati
L’uomo
ottiene circa il 95% dell’energia ossidando atomi di carbonio nei legami C-H e
C-C (i.e., bruciando combustibili fossili: idrocarburi, gas naturale e
carbone). Il necessario prodotto
finale di tali processi di generazione di energia è l’emissione in atmosfera di
anidride carbonica (CO2) in quantità strettamente proporzionali alla
energia totale usata. Tale modalità di generazione dell’energia è non
rinnovabile e non sostenibile. Infatti, centinaia di milioni di anni fa grandi
masse di clorofilla hanno cominciato a rimuovere carbonio nella forma ossidata
(sotto forma di CO2) dall’atmosfera, per riporlo nei propri tessuti
sotto forma ridotta, nei legami C-C e C-H. Contemporaneamente, veniva
immagazzinata energia a spese di quella solare, come è chiaro dalla reazione
generica che segue e dalla spiegazione della struttura energetica delle
molecole organiche data tra breve:
iCO2 + clorofilla
+ fotone + mH2O ® n(R-CH-S) + clorofilla + wO2,
dove i coefficienti
stechiometrici dipendono dal tipo di molecola organica formata, mentre R ed S
sono radicali organici generici comunque complessi. La clorofilla agisce da
catalizzatore, mentre il fotone assorbito fornisce l’energia necessaria per la
riduzione (vedi qui sotto). Nel corso degli ultimi circa 200 milioni di anni,
una frazione considerevole di tale manto clorofilliano è morto, putrefacendosi
e trasformandosi in petrolio, gas naturale e carbone. I
legami C-C e C-H (maggiormente quest’ultimo) hanno una buca di potenziale meno
profonda del legame C-O. La differenza è quella che l’uomo usa per produrre
energia, riossidando il carbonio (i.e. bruciando i combustibili fossili) e di
conseguenza producendo anidride carbonica. L’insostenibilità di tale processo umano di
generazione di energia sta nel fatto che - per ordini di grandezza - essa è
stata immagazzinata nel corso di più di 200 milioni di anni, mentre noi la
stiamo consumando (e immettendo in atmosfera) in soli 140 anni, anzi
-essenzialmente- negli ultimi 60! La velocità di consumo -umano- è così circa 3
milioni di volte quella di produzione - naturale.
A
questo punto bisogna ricordare che
l’equilibrio termo-radiativo dell’atmosfera è regolato, a parità di
irraggiamento, dalla concentrazione - in atmosfera - dei cosiddetti gas di serra, ossia dalla concentrazione
di molecole che hanno alti coefficienti di assorbimento (ossia in definitiva
alte sezioni d’urto) nell’infrarosso. Tra le molecole naturali essenzialmente
troviamo l’acqua (H2O) l’anidride carbonica (CO2) e il
metano (CH4). Mentre
l’equilibrio radiativo boltzmaniano - che si avrebbe in assenza di atmosfera -
tra la radianza solare e il reirraggiamento da diseccitazione dei livelli
roto-vibrazionali assegnerebbe alla superficie del nostro pianeta una
temperatura media[19]
di circa -20° C, la presenza dei suddetti
gas di serra garantisce una media di circa 15° C. Questo è quello che si chiama l’effetto
serra naturale. In maniera
quantitativa, per il lettore fisico, diamo qui di seguito le espressioni per la
potenza radiante assorbita per unità di superficie e per il contributo
dell’effetto serra alla derivata della temperatura media al livello del mare.
Esse si ottengono mediando - sulle frequenze infrarosse rilevanti - l’equazione
differenziale del trasporto radiativo, e manipolando opportunamente
l’espressione ottenuta, uguagliando poi la radianza assorbita per transizioni
roto-vibrazionali alla derivata rispetto al tempo dell’energia interna media
dell’atmosfera per unità di superficie:
(global warming potential) (1)
dove la sommatoria è estesa
a tutte le specie molecolari rilevanti, ni è la densità numerica delle molecole
considerate, è la sezione
d’urto monocromatica relativa alla specie molecolare i alla frequenza n e I(n) è la radianza riemessa dalla superficie
terrestre nell’infrarosso. Questa equazione descrive ovviamente la media
spaziale su tutta la superficie del pianeta. Il corrispondente contributo alla
derivata della temperatura[20]
media <T> è:
(2)
dove r è ovviamente la densità dell’atmosfera (più
precisamente della parte in cui avviene l’assorbimento) k è la costante di
Boltzman, mH la massa dell’atomo di idrogeno, e m è il peso molecolare medio.
Figure 1 The
World Industrial Product (deflated world “GDP” in real value - i.e. in physical
equivalent). The unit is an index number, set as base=100 in 1963. To obtain
-with good approximation- the value in US$ (1990 value) multiply by 212.1
billion. Doubling time@17
years. Data: The World Bank
(hereafter WB); stats.: GDI[21]. |
Figure 2 The CO2
emissions (in CO2 mass units: to obtain GtonC - i.e. Carbon units
- multiply by 12/44 @ 0.2727). Doubling time@29 years. Data: CDIAC; stats.: GDI. |
Il
problema è che l’uomo, dall’inizio della rivoluzione industriale, per
soddisfare il fabbisogno di energia - che è cresciuto e cresce tuttora
esponenzialmente, è entrato in un regime di consumo di combustibili fossili
altrettanto esponenziale, emettendo in atmosfera quantità di anidride carbonica
esponenzialmente crescenti (vedi fig.2) con un tempo di raddoppiamento di 29
anni circa. Ciò è servito, in definitiva, ad alimentare la crescita economica
(vedi fig. 1), altrettanto esponenziale, ma con un tempo di raddoppiamento più
rapido, dovuto al miglioramento tecnologico delle efficienze di bruciamento,
per cui col passar del tempo sono necessarie quantità di energia minori per
produrre la stessa quantità di prodotto
industriale mondiale (WIP). Per la precisione, quest’ultima grandezza è la
generalizzazione a livello mondiale del PIL, solo che in termini reali
(deflazionati, corrispettivi nel caso della figura al dollaro 1963, e in
termini di equivalenti fisici e non puramente monetari). Il fatto è che per
ogni unità di WIP prodotto è necessaria una ben determinata quantità di energia
- a parità di efficienza - e quindi, per motivi energetico-molecolari, è
necessario bruciare una ben determinata quantità di combustibili fossili, e
dunque di emettere una ben determinata quantità di CO2 in atmosfera. L’efficienza è - finora
- costantemente aumentata, e questo è il motivo per cui il tempo di
raddoppiamento delle emissioni è più lento di quello del prodotto industriale,
cioè della crescita economica. Detto aumento di efficienza, però, è ovviamente
limitato dal Secondo
Principio della Termodinamica, visto che l’efficienza di cui parliamo - energia
prodotta per unità di emissioni di anidride carbonica - non è soltanto
proporzionale all’efficienza economica - dollari di prodotto industriale per
unità di emissioni di anidride carbonica - ma anche al rendimento termodinamico
di qualsiasi macchinario converta l’energia chimica del combustibile in energia
termica e in definitiva in lavoro utilizzabile. In termini pratici, siamo oggi
ad un’efficienza termodinamica media di circa 0.25, e possiamo crescere - ottimisticamente
- fino ad un valore di 0.75-0.8 al massimo. Questi valori tengono conto delle
diverse macchine necessarie alla vita industriale, agricola ed urbana, per
esempio dai veicoli con motore termico (benzina o diesel) con efficienza
intorno al 16-17% (0.16-0.17) alle
turbine a gas ad alta temperatura, con efficienze sperimentali fino al 50%
(0.5).
Figure 3 The impressive, strong correlation between the global CO2
emissions and the world industrial product. The implied correlation
coefficient is r@0.995.
Data from: CDIAC; WB. Correlation
and stats.: GDI. |
Per concludere questa
digressione sull’efficienza, con l’attuale trend di miglioramento tecnologico,
possiamo crescere un altro paio di decenni al massimo, prima di “sbattere”
contro il Secondo Principio della
Termodinamica. Dopodiché le emissioni cominceranno a salire con lo stesso tempo
di raddoppiamento del WIP. Usando
i dati forniti dalla Banca Mondiale, in termini sempre reali, e del CDIAC[22] si può vedere in fig. 3
l’impressionante correlazione esistente tra la crescita economica (il WIP) e le
emissioni negli ultimi 150 anni circa: il coefficiente di correlazione è r@0.995. La relazione tra l’efficienza
economica, e, il prodotto industriale
mondiale WIP e le emissioni, E, è:
E
= WIP/e.
(3)
La conseguenza dell’aumento
esponenziale delle emissioni di anidride carbonica in atmosfera, in atto da
circa 150 anni, è un drammatico - per l’umanità - aumento della concentrazione
di CO2 , come si può vedere nelle fig 4 e 5, su due diverse scale
temporali (dati del CDIAC; IPCC[23];
NGDC[24];
UKMO[25]).
In fig. 4 possiamo vedere le fluttuazioni naturali che i dati ci mostrano nei
mille anni circa prima del 1850, e la rapida crescita esponenziale successiva,
tuttora in atto. La fig 5 è il dettaglio dell’era industriale in cui stiamo
vivendo.
Figure
4 The natural
CO2 variations and the anthro-pogenic increase after the
industrial revolution in 1800. In this graph, and in all the next ones
showing a best-fit curve to the data, the continuous lines above and below
the fit are the 99% confidence levels (inner lines) and the 99% prediction
levels (outer lines from the fit). Data from the IPCC (1995); CDIAC. Statistics:
GDI 1997. |
Figure
5 A zoom-in on the
1850-2000 interval of Fig. 1a, showing the exponential trend in the data
regarding the CO2 concentration after the industrial revolution.
Note the very short e-folding time (40 years), corres-ponding to a doubling
time of only 27 years. Data from IPCC; CDIAC; det. coefficient: r2@0.98; best-fit and conf.
levels by GDI 1997. |
Possiamo notare che il
valore di concentrazione naturale di
CO2 , quello cioè che garantiva il benefico effetto serra
naturale , era di circa 280 ppmv (parti per milione in volume) mentre in
150 anni - ma essenzialmente negli ultimi 70 - abbiamo portato la
concentrazione di anidride carbonica a poco meno di 364 ppmv (valore fine 1998)
pari ad un aumento del 30% circa.
E aumentiamo con un tempo di raddoppiamento attualmente uguale a 27
anni, che fatalmente scenderà a soli 17 anni in meno di un paio di decadi, per
la saturazione delle efficienze imposta dal Secondo Principio TDN agli attuali
tassi di sviluppo tecnologico dell’Occidente. Una accelerazione tecnologica
della Cina, dell’India e di altri importanti PVS[26]
(paesi in via di sviluppo) diminuirà ancora il tempo in capo al quale ci sarà
l’attesa saturazione.
Una brevissima digressione generale: al lettore attento non sfugga il legame di tutto ciò con il problema dell’energia. A questo scopo, si ricordi che stiamo parlando di “problemi” -eufemisticamente definiti tali - causati dal processo di generazione di energia, che avviene al 95% bruciando combustibili fossili. Torneremo ovviamente su questo e sulle conseguenze economiche e militari. Starà al lettore stesso di trarre eventualmente quelle politiche generali.
Figure 6 The temperature anomaly after 1860. Data: IPCC; UKMO |
Andiamo avanti con i dati: cosa è
successo alla temperatura media superficiale dell’atmosfera del nostro pianeta
in questi 150 anni di crescita esponenziale economica e quindi di emissioni di
CO2 ? Questo si può
vedere dalla fig. 6 (sorgente IPCC;UKMO; anche NGDC del NOAA), che mostra
l’andamento della temperatura media superficiale dal 1860 ad oggi. E’ evidente
il trend in crescita, a parte oscillazioni cicliche e stocastiche. In
conseguenza di tale aumento di temperatura (circa 0.6 °C in un secolo) si è
riscontrato un aumento del livello medio del mare di 25 cm (nel Mediterraneo
circa 11 cm, a causa della prevalenza dell’evaporazione in questo bacino
chiuso).
Figure 7 220,000 years of data on the CO2
concen-tration from the Vostok ice core. Source: NGDC (NOAA
Palaeoclimatology Program);
NSIDC[27]. |
Figure 8 Same as fig. 5, but for the
temperature anomaly. Source: as in Fig 7. |
Andando a vedere i dati
paleoclimatici, possiamo per esempio valutare in fig. 7 e 8 l’andamento
misurato della temperatura e della concentrazione di anidride carbonica
ottenuti analizzando le bollicine d’aria intrappolate nel ghiaccio del
carotaggio di Vostok[28]. Il grafico plotta dati riferentisi a
220 mila anni prima di oggi[29].
Risulta evidente la forte correlazione tra l’andamento della CO2 e
la temperatura. Si vede inoltre che la concentrazione atmosferica di anidride
carbonica ha oscillato tra circa 180 ppmv e 300 ppmv. Da altri data set, più
dettagliati nei passati 10 mila anni, si vede che il valore della concentrazione preindustriale - 280 ppmv
- era ormai stabile da molte migliaia di anni, con le oscillazioni visibili in
fig. 4 prima del 1800 circa.
Figure 9. In this graph, the
measured data end in 1997. The
extrapolation to the year 2100 is a pure BAU behaviour of the CO2
concentration historical data, with a best estimate of somewhat less than 1300 ppmv,
actually higher that that implied by the IPCC scenario IS92e. Statistics: GDI 1997. Data source as in Fig 1b. |
Se riportassimo in fig. 7
l’aumento antropogenico di anidride carbonica degli ultimi circa 100 anni,
sarebbe una retta verticale fino a 363 ppmv. E l’attuale trend business-as-usual [30](BAU)
prevede il raddoppio (560 ppmv) del
valore preindustriale entro 35 anni circa (anzi solo 20 se la
saturazione dell’efficienza avverrà prima). Entro la fine del secolo venturo il
business-as-usual trend ci farà arrivare a più di un quadruplicamento (vedi
fig. 9). In altre parole, in 100 anni circa avremo prodotto una variazione
della concentrazione atmosferica di anidride carbonica 3 volte maggiore della massima
variazione registrata in poco meno di mezzo milione di anni. Guardando la
fortissima correlazione tra temperatura media e concentrazione di gas serra
(sono disponibili analoghi dati per la concentrazione di metano) è impossibile
non aspettarsi, con tali grandi e rapidissime variazioni antropogeniche della
concentrazione di CO2 un effetto serra di origine antropogenica[31]
di vaste proporzioni - anche senza girare pesanti modelli numerici
idrodinamico-radiativi.
Ogni
anno emettiamo comples-sivamente in atmosfera circa 6.3 miliardi di tonnellate
di carbonio, ossia circa 23 miliardi di tonnellate di anidride carbonica, a cui
si devono aggiungere circa 5.5
miliardi di tonnellate di CO2 dovute alla deforestazione[32]
nelle grandi foreste tropicali. Di quei 23 miliardi di tonnellate di anidride
carbonica l’anno, più dei 3/4 vengono assorbiti[33]
dal biota clorofilliano nelle foreste e negli oceani[34].
Il lettore ha a questo punto compreso che - quando verranno meno gli
assorbitori forestali e ci sarà una sink failure delle alghe negli oceani -
l’immissione netta in atmosfera diventera’ di conseguenza più che quadrupla,
senza contare l’aumento dovuto alla crescita economica (che politici ed
economisti fanno a gara a dichiarare “irrinunciabile”[35]).
E’ anche evidente - a questo punto - la forte interazione della crisi climatica
che stiamo descrivendo con la crisi n. 3 (deforestazione). Ne vedremo più
avanti (in questo paper) le implicazioni economiche e agricole.
Questi sono i dati. E’ naturale che il lettore si chiederà:
cosa succederà all’equilibrio termo-radiativo dell’atmosfera in presenza di
tali violente alterazioni antropogeniche della concentrazione dei gas di serra?
Per rendersi conto della rapidità del processo, si pensi che il pianeta non
vede concentrazioni di anidride carbonica così alte (come quella che raggiungeremo al tasso
attuale tra venti anni) da più di 35-50 milioni di anni. Tale dato si ottiene
facilmente confrontando i record di concentrazione che ssi ottengono analizzando
i sedimenti calcarei[36]
sia a terra che sul fondo degli oceani con le 560 ppmv che raggiungeremo al più
tardi tra 30 anni ma più probabilmente tra 20.
Si tenga presente che anche
altri gas di serra sono in vistosa crescita. Infatti, il metano sta crescendo
esponenzialmente (da processi industriali ed agricoli) e i
cloro-fluoro-carburi (che sono
anche responsabili della progressiva distruzione dello strato di ozono
stratosferico) e gli idro-fluoro-carburi
(loro sostituti salva-ozono) sono anch’essi in rapida ascesa e ambedue
sono potenti gas serra. Infine, il protossido di azoto (N2O) è
anch’esso in crescita esponenziale.
I CFC e gli HFC sono un milione di volte meno abbondanti dell’anidride
carbonica, ma contribuiscono all’effetto serra totale per il 20%, contro il 55%
dell’anidride carbonica, il 17% del metano e l’8% del protossido d’azoto. Ciò è
dovuto al fatto che la sezione d’urto dei CFC è altissima, dell’ordine di 106
volte più alta di quella della CO2. Analogamente accade per il
metano, dove il fattore è quasi uguale a mille. Anche il vapor d’acqua è un potente gas
serra (grande sezione d’urto nell’infrarosso qui rilevante). Tutto il ciclo
dell’acqua (evaporazione, formazione di nubi, precipitazioni, etc) viene
ovviamente seguito nei calcoli e nei modelli, insieme al ciclo del carbonio,
come vedremo tra breve. Ciononostante, anche se il suo contributo netto è alto
e ovviamente è un termine importante nei calcoli, non è l’H2O a “dominare” la scena, in quanto ovviamente
l’aumento di temperatura fa aumentare la tensione di vapore e l’evaporazione
dai mari, causando una maggior immissione di vapore in atmosfera, cosa che
aumenta a sua volta l’effetto serra, con retroazione positiva. Il nesso causale
ovviamente è gas serra antropogenici ® vapor d’acqua. Non solo, ma
il tempo di permanenza media in atmosfera della CO2 è di circa 200 anni, a fronte di pochi
giorni per l’H2O. Il
metano permane per periodi da anni a decenni, e alcuni CFC hanno periodi di
permanenza dell’ordine di 104 anni. Ciò chiarisce ulteriormente
perché il vapor d’acqua, pur essendo un potente gas serra, non è affatto il driving factor dell’effetto serra.
Una vecchia polemica -
superata da prima della metà degli anni ‘80 - era basata sul fatto che la
copertura nuvolosa, in aumento per l’aumento del vapor d’acqua dovuto al
riscaldamento globale[37],
avrebbe “prima o poi”, con l’aumento dell’albedo (riflettività verso lo spazio
esterno all’atmosfera), regolato automaticamente il problema termico,
arrestando il riscaldamento. A parte il fatto che questa obiezione era molto
ingenua e qualitativa, in quanto è da determinare quanto “prima” e quanto
“poi”, prima ancora che i modelli
potessero dimostrare anche numericamente che l’effetto in questione non fermava
il riscaldamento prima di almeno 10°C, era evidente -
dall’analisi dei termini forzanti delle equazioni differenziali - che comunque
tale “equilibrio” si sarebbe raggiunto soltanto quando la temperatura fosse
diventata così più alta di adesso da popolare l’atmosfera con vapor d’acqua
sufficiente ad aumentare l’albedo abbastanza per fermare l’effetto serra, e
questo appariva già qualitativamente venti anni fa avvenire per un
riscaldamento superiore a qualche grado. Per colmo di assessment di questa vecchia polemica - che io riporto per il
lettore che la avesse eventualmente sentita, anche se scientificamente non è
più in discussione da più di 15
anni - basta valutare il data set della temperatura ottenuto dai
sedimenti (analisi del rapporto O18/O16 etc.) per i
pregressi circa 200 milioni di anni (v. fig. 10).
Figure 10 Global
palaeoclimatic temperature behaviour from 180 million years before
present up to now, in three different time scales. The Vostok ice core data
cover roughly the last half (440,000 years) of the 1 million year interval
marked with the arrows. (Data from, e.g., IUCC, CDIAC or NGDC) |
Appare infatti evidente che,
essendo la temperatura stata per circa 100 milioni di anni al di sopra di 7° C più calda di ora (e per decine di milioni
intorno a 9° C), il feed-back negativo
“autoregolante” dell’albedo delle nubi non scatta in quel range di temperature.
Siccome la crisi climatica avviene con soltanto 1.5° C
in più dell’attuale temperatura, questo taglia ogni obiezione, anche
senza ricorrere ai modelli che descriveremo più avanti.
Guardando le formule (1) e
(2) per il global warming potential e
per il contributo alla derivata della temperatura dell’effetto serra, si vede
che anche - ovviamente - un aumento di radianza solare potrebbe dare l’effetto
di riscaldamento. Il fatto è che il Sole - la cui irradianza possiamo
ricostruire con buoni proxies fin dal
1600 - ha avuto sì variazioni di irradianza, ma al massimo tra 1375.6 e 1376.5
Wm-2 - meno cioè dell’1
per mille, mentre i gas serra sono variati - negli ultimi cento anni - del 30%
per mano umana. Per giunta, un famoso articolo su Nature apparso lo scorso anno
(1998) ha fatto vedere i coefficienti di correlazione correnti - a finestra di
200 anni - della temperatura con la radianza solare e con la concentrazione di
anidride carbonica, oltre che con l’indice di polvere in atmosfera. L’analisi
ha dimostrato che la correlazione con la variazione di irradianza solare domina
fino al 1800 circa, mentre dal 1850 in poi è la correlazione con l’anidride carbonica
- in aumento esponenziale - a dominare. Guardando le formule (1) e (2) - in cui
la densità dei gas serra e la irradianza solare compaiono ambedue al numeratore
con la stessa potenza (lineari ambedue) - prevedibile che l’effetto di
riscaldamento dovuto ad un eventuale aumento di irradianza solare inferiore
all’1 per mille non poteva competere con quello dovuto all’aumento del 30%
della CO2 , che per giunta è tuttora in aumento esponenziale, mentre
le variazioni solari sono cicliche, più un trend a salire (nei pregressi 400
anni) di una frazione dell’ordine di 10-4.
Previsioni e modelli
Siamo dunque alle previsioni
sulle conseguenze dei trend rivelati dai dati. Per fare questo, la comunità scientifica ha approntato (in
più di 40 anni di lavoro teorico numerico fluidodinamico) dei programmi
evolutivi complessi, basati sull’idrodinamica a 3D, sul ciclo del carbonio
nella biosfera e nella geosfera, sulla fisica radiativa chiamati GCM (General Circulation Models) nella versione ultima accoppiati
atmosfera-oceano. Per dare un’idea dello sforzo scientifico in atto, possiamo
ricordare che il governo degli Stati Uniti eroga circa 6.5 miliardi di dollari
l’anno (dato dell’anno fiscale 1998), e che per esempio, la NASA riceve più
fondi per i modelli climatici (del GISS[38])
-1.5 miliardi di dollari - che per il resto delle sue attività spaziali civili.
Il JPL[39]
ha il calcolo di modelli climatici come il più importante e finanziato key
project. Siamo 30 mila ricercatori nel mondo (censimento 1997) a lavorare sul
climate change, di cui circa 14 mila nordamericani. La Germania eroga circa 3
miliardi di marchi l’anno sui climate change studies, e la Gran Bretagna circa
un miliardo di sterline l’anno.
Descriviamo brevemente un
AO-GCM[40].
Si tratta del top della produzione numerica di fluidodinamica oggi esistente,
accoppiato a un insieme di sottomodelli complessi interagenti non-lineari. Per
dare una dimensione numerica, anche i computers one-off dei due laboratori
militari statunitensi (Lawrence Livermore Radiation Laboratory e Los Alamos
Laboratory) sono impegnati con i loro computers top-line. La struttura di un
programma AOGCM (d’ora in poi GCM per brevità) è composta di diversi moduli
contenenti centinaia di subroutines. Le equazioni differenziali da trattare
sono in un sistema di diverse decine, a seconda del grado di approssimazione
nella trattazione delle reazioni in fase gassosa e dei cicli dell’acqua e del
carbonio. Essenzialmente esistono: due grossi moduli che integrano le equazioni
dei fluidi per la circolazione atmosferica e oceanica; un modulo per il calcolo
della radiazione (equazione del trasporto e assorbimenti ed emissività); un
modulo per i sinks di gas serra, con le relative equazioni di continuità; un
modulo per il ciclo del carbonio e uno per quello dell’acqua (contenenti
subroutines per l’evaporazione, la formazione di nubi, i flussi di acqua terra®oceano, le precipitazioni, con sottomoduli
per il ghiacchio flottante e a terra, per la copertura nevosa, etc.); un modulo
per le reazioni chimiche in fase gassosa; uno per la trattazione
dell’accoppiamento del biota tramite i sinks; un modulo per le sorgenti di gas
serra; uno per il particolato in aerosol, e tanti altri che qui non
menzioniamo. Esistono circa una trentina di diversi GCM prodotti da diversi laboratori,
università ed istituti, ma essenzialmente sono derivazioni che “degenerano” in
5 o 6 tipi di programma, che si possono elencare così (sono i più importanti e
famosi, ma qui non sono in ordine di importanza, anche perché sarebbe difficile
stabilirlo) il programma del GFDL[41],
lo UM[42]
del UKMO, il GISS[43]
della NASA, il BMRC[44]
australiano, un modello cinese[45],
il modello dello NCAR[46],
il modello europeo dello ECMWF, ed altri (come il modello di Pasadena -JPL- e
quello indiano).
Daremo
prima un breve cenno alle previsioni così come sono oggi (aggiornate all’ultimo
Assessment Report dell’IPCC, Plenary di Roma, dic. 1995) e poi daremo un cenno
storico sull’IPCC, sul ruolo delle Nazioni Unite, e sulle previsioni del Club
di Roma riguardanti l’effetto serra[47]e
le sue cause primarie, ricondotte all’aumento esponenziale del prodotto
industriale, ossia alla crescita economica esponenziale in atto dalla
rivoluzione industriale ad oggi. L’apparente inversione logica ha lo scopo di
non distrarre il lettore dal contenuto scientifico delle proiezioni - approvato
all’unanimità alla XI Sessione Plenaria dell’IPCC dalla comunità scientifica
mondiale guidata dall’ICSU, mentre il dare i cenni storici subito dopo
permetterà di seguire l’impatto dell’enorme processo scientifico sul climate
change, nonché numerose interazioni con i governi e i poteri economici
mondiali.
L’IPCC,
nel SAR[48],
offre due tipi diversi di previsione: una serie di previsioni transienti e una previsione all’equilibrio, come ora spieghiamo. Nel
primo caso, l’IPCC presenta diversi scenari circa le traiettorie evolutive
delle emissioni nel prossimo secolo e conseguentemente calcola le previsioni,
con un best estimate, un minimo e un massimo con livello di confidenza del 95%. Gli scenari suddetti sono
caratterizzati dall’essere BAU per quanto riguarda le misure, ossia si suppone
che i governi non facciano alcun intervento per combattere l’effetto serra,
mentre si ipotizzano diversi scenari
di crescita economica[49],
da cui scendono le diverse traiettorie evolutive delle emissioni. Di
conseguenza, l’IPCC sforna diverse previsioni con un clima transiente,
all’evolvere delle emissioni. Tutti i calcoli sono forniti come media dei
diversi modelli, i quali a monte vengono continuamente testati e comparati, e
viene controllato che lo scarto totale non sia superiore a valori prefissati.
E’ stato infatti istituito (da dieci anni circa) un organismo scientifico
internazionale multidisciplinare, l’AMIP[50],
con il compito di paragonare, cross-testare, e controllare i diversi programmi
peer-reviewed e ufficialmente usati dall’IPCC, oltre che -ovviamente-
paragonare i dati teorici con le osservazioni, dando come condizioni iniziali
situazioni pregresse note e paragonando la previsione teorica ad oggi con i
dati osservativi.
Un secondo tipo di previsione - più nota al pubblico non scientifico - è
quella all’equilibrio, cioè si ipotizza che l’anidride carbonica abbia
raggiunto un dato livello (per ora si usa il raddoppio rispetto al livello
naturale pre-industriale) e si lasciano evolvere tutte le altre variabili
(fisiche, chimiche e biologiche) fino al raggiungimento dell’equilibrio. I
modelli - nello standard ufficiale dell’AMIP - per ora sono in grado di
calcolare il “raddoppio” (“2xCO2 world”), ma diversi leading institutes stanno già calcolando
(o hanno già calcolato) le previsioni al quadruplicamento (4xCO2)
come lo UKMO, il GISS della NASA, il GFDL, il BMRC, il modello cinese, nonché i
codes di Livermore e Los Alamos. Ovviamente, come ipotesi di default, cioè
business-as-usual, il quadruplicamento è purtroppo molto più realistico, come
possiamo leggere nel SAR, come abbiamo sentito in uno dei seminari mensili alla
Casa Bianca sul climate change, tenuto dal Prof. Jerry Mahlman, direttore del
GFDL, lo scorso anno, e come possiamo vedere dalla fig. 9 del presente
articolo. Per questo motivo, visto che qui ci limiteremo a riportare le
previsioni IPCC all’equilibrio al raddoppio del valore pre-industriale di CO2)
e visto che la natura non-lineare dei fenomeni e la monotonicità degli impatti
con la concentrazione di anidride carbonica prevedono un fortissimo
peggioramento all’ulteriore raddoppio (4xCO2) e che inoltre questo è
addirittura una sottostima della concentrazione verso cui andiamo nel prossimo
secolo se non verranno prese drastiche misure, per tutti questi motivi il lettore deve prendere le previsioni al
raddoppio in equilibrio che diamo qui sotto come una visione super-ottimistica di cosa ci attende sulla presente
traiettoria BAU delle emissioni industriali e agricole (il che equivale a
dire sulla presente traiettoria di crescita economica senza limite alcuno).
___________________
PREVISIONI IPCC SAR al raddoppio delle concentrazioni preindustriali di
gas serra[51].
(sull’orizzonte del 2100)
¨ TEMPERATURA. Da +1.5°C a +3.5°C, best estimate: +2.5°C (NB. ricalcolate
quest’inverno - febbraio 1999 - in +2.5°C __ +4.5°C,
best estimate: +3.5°C). Si tratta di temperature
superficiali mediate terre-oceano e mediate su tutte le latitudini, e su una
finestra temporale di 30 anni, per eliminare le oscillazioni periodiche e
stocastiche). Ciò equivale
ad uno spostamento - verso i poli -delle fasce climatiche da 500 a 1000 Km
circa. Il riscaldamento è previsto
progressivamente più pronunciato a latitudini via via più alte (come sta già
avvenendo: a fronte di un riscaldamento di 0.6°C a livello globale nel
secolo pregresso fino ad ora, ai poli e nelle regioni fredde il riscaldamento è
stato di quantità dai 2°C ai 3.5°C).
¨ LIVELLO DEL MARE. Aumento da 25 cm a 1
metro (con le nuove temperature,
circa da 40 cm a 1.5 m) Sia il livello del mare che la temperatura
continueranno ad aumentare per molto tempo prima di stabilizzarsi, fino ad
altri 100-200 anni.
¨ EVENTI METEOROLOGICI ESTREMI.
Il
ciclo idrogeologico si farà più intenso. Le precipitazioni si concentreranno su
periodi più brevi, dando luogo ad alternanza di siccità ed alluvioni, e
comunque ad oscillazioni sempre più pronunciate delle precipitazioni.
Spazialmente, ci sarà la tendenza a creare zone soggette a siccità e zone soggette
ad alluvioni. E’ possibile - anche se non dimostrato - che aumenti in alcune
zone la frequenza ed intensità di eventi come uragani, temporali intensi
(frequenza di formazione di Cb) e tornado. Si prevede l’aumento di frequenza ed
intensità delle heat waves[52]. Sono previsti in numero sempre
crescente incendi regionali di vasta estensione ed intensità[53].
¨ MALATTIE TROPICALI.
(previsione in collaborazione IPCC-WMO-WHO[54]). In conseguenza dello spostamento delle
fasce climatiche, una serie di insetti, abitatori abituali delle attuali fasce
tropicali e vettori di malattie tropicali, si sposteranno verso i poli,
causando nelle attuali zone temperate epidemie di malaria, dengue, oncocercosi,
febbre gialla, malattia del sonno, ed altre. Sono previste fino a diverse
centinaia di milioni di vittime delle malattie tropicali nel secolo in arrivo.
¨ INFILTRAZIONE DELLE FALDE ACQUIFERE COSTIERE. In conseguenza dell’aumento
del livello del mare, praticamente tutte le falde acquifere delle zone
limitrofe con il mare saranno infiltrate da acqua salata, con danno per
l’agricoltura costiera.
¨ CONTRAZIONE DEL MANTO FORESTALE TROPICALE. A causa dell’aumento della
temperatura in tempi più rapidi di quelli dell’adattamento e della velocità di
migrazione delle foreste, masse rilevanti - fino a molto rilevanti - di foreste
verranno meno, con conseguente addizione diretta di CO2 - dovuta
agli incendi a alla putrefazione - e indiretta - dovuta alla conseguente
riduzione del tasso di assorbimento clorofilliano.
¨ DESERTIFICAZIONE. Le zone desertiche diventeranno più estese, più estreme, e
più numerose.
¨ PRODUZIONE AGRICOLA. La produzione agricola sarà soggetta
a variazioni effettive e
potenziali (in generale,
diminuzione nelle attuali fasce temperate[55]
e tropicali, e potenziale aumento nelle fasce fredde). L’aumento potenziale
della produzione nelle fasce fredde, però, richiederebbe interventi come il
dissodamento della Siberia - il SAR non ha stimato il costo e chi sarebbe in
grado di pagarlo su questo pianeta, e neanche l’energia in combustibili fossili
che sarebbe necessaria, al di là del costo - e inoltre la distruzione delle
vaste foreste lì situate.
¨ SCIOGLIMENTO PROGRESSIVO DEI GHIACCIAI. L’aumento di temperatura
sta già progressivamente sciogliendo i ghiacciai, che si stanno attualmente
ritirando ovunque a velocità dai 15 ai 50 metri l’anno. L’ulteriore aumento
previsto porterà alla progressiva scomparsa dei ghiacci permanenti sui rilievi
montuosi, con conseguente calo della portata di ruscelli pedemontani e fiumi, o
addirittura inaridimento di alcuni, producendo un vistoso calo delle acque da
irrigazione.
¨ PROFUGHI DEL CLIMA. In conseguenza della fame per crollo
agricolo e dell’innalzamento del livello del mare, e tenuto conto che quasi
tutti gli insediamenti umani si trovano sul mare, si prevede che diverse
centinaia di milioni (fino a 800 milioni) di profughi si sposteranno in cerca
di zone in cui poter vivere.
¨ VARIAZIONE DELLE RISERVE IDRICHE.
A seguito dell’intensificarsi del ciclo idrogeologico (v. eventi
estremi) il terreno non riuscirà a trattenere ed accumulare le stesse quantità
d’acqua attuali. Si prevedono
perciò ammanchi di fornitura idrica[56]
anche rilevanti[57].
Anche con la sola attuale
concentrazione di anidride carbonica ed altri gas serra in atmosfera (se cioè
per esempio estremo si spegnessero tutte le fabbriche, i veicoli termici e ogni
generatore di energia a combustibili fossili) avremo una crisi climatica - non
è chiaro quanto più lieve anche se più
lieve sarà senz’altro, e la situazione naturale pre-industriale verrebbe
ripristinata dopo circa 200 anni.
Inoltre, caratteristica di questi fenomeni di global warming è quella di essere
a forte delay temporale (circa
50-80 anni) rispetto alle cause.
Il rapporto SAR mostra che le
variazioni climatiche che stiamo subendo adesso sono dovuti alla CO2
che abbiamo emesso fino ad 80 anni fa, e quella che stiamo emettendo adesso
produrrà i suoi effetti tra 50-80 anni. Il lettore può rendersi conto facilmente di ciò dando
un’occhiata alla formula (2). Infatti, la variabile che pilota praticamente
tutti gli impatti è la temperatura media. Ebbene, derivando la (2) e
trascurando la variazione di radianza rispetto a quella della concentrazione di
gas serra, otteniamo che la variabile su cui l’uomo può agire - le emissioni,
spegnendo o riducendo il regime delle macchine termiche - e cioè la derivata
delle concentrazioni, , è proporzionale alla derivata seconda della temperatura
media, . Da qui
scende lo sfasamento temporale.
La caratteristica del delay
temporale nell’effetto serra e conseguente global warming è veramente perniciosa, se consideriamo l’attitudine dei politici - e dei
governi - a prendere in considerazione i
problemi da risolvere solo quando si sono già presentati, anzi, dopo che sono già accaduti. Tutto ciò è
ancora peggiorato, visto che praticamente tutti gli economisti, l’IMF, le borse
e in generale l’industria tendono a sostenere che, siccome ridurre la crisi
climatica costa[58] e fermerà
la crescita e il Mercato[59],
è assolutamente necessario che i governi non facciano assolutamente nulla e che
confidino soltanto nel Mercato stesso, nella magica Tecnologia e nell’ancor più
magica Scienza (che dovrebbero, per esempio, trovare il modo di violare il
Secondo Principio della Termodinamica). Ovviamente il lettore ha capito che
quest’ultimo capoverso NON è imputabile al SAR dell’IPCC, viste le procedure
diplomatiche delle Nazioni Unite che regolano le procedure IPCC, anche se devo
dire che tutti i colleghi con cui ho parlato nei congressi e meetings IPCC e
nei summit negoziali nutrono la stessa convinzione circa l’attitudine di
politici e governi a combattere l’effetto serra prima che sia del tutto fuori
controllo. Lo stesso vale per i giornalisti (specie in Italia e nel resto del
Sud europeo, ma non soltanto) nello scrivere (e in cosa pubblicare)
sull’effetto serra e sulle misure necessarie.
_______________________
PRESCRIZIONI E
DATI IPCC SAR necessari a mitigare l’effetto serra
(si tenga conto che l’IPCC è
un organo prettamente scientifico istituito dalla Nazioni Unite con il
coordinamento dell’ICSU, e i cui scienziati membri con diritto di voto sono di
nomina governativa. Non spetta dunque all’IPCC dire cosa i governi debbono
fare, anche se l’IPCC indica le possibili strade per combattere l’effetto
serra, in accordo con l’Art.2 della Convenzione Climatica -UNFCCC [60]-
di cui parleremo in seguito).
· STABILIZZAZIONE DELLA CONCENTRAZIONE dei gas serra, tramite la riduzione delle emissioni industriali. La
riduzione delle emissioni necessaria a stabilizzare la concentrazione dei gas
serra al valore del 1990, se messa in atto nel 1990 e in maniera
immediata, sarebbe dovuta essere
nel range [-60% , -80%]. Questo significa che al massimo il 20%-40% delle emissioni del 1990
era assorbibile dai sinks naturali, e che quindi la concentrazione atmosferica
non sarebbe variata. Tale misura - non realizzabile, naturalmente, in quella
quantità immediata - avrebbe quindi mantenuto le circa 357 ppmv del 1990
costanti nel tempo. E’ chiaro che,
non potendosi attuare misure così immediate (ancora oggi non abbiamo ridotto
nulla, ma aumentato a 6.3 Gton/year di carbonio dalle circa 5.9 del 1990) ogni
ritardo implica un aumento della percentuale di riduzione, per ottenere lo
stesso risultato. Questo accade poiché la crescita economica continua
esponenzialmente e di conseguenza anche le emissioni continuano a crescere,
mentre rimane sostanzialmente costante la quantità assorbibile, se si trascura
la deforestazione che diminuisce il potere assorbente dei sinks.
· SCENARI (CURVE DI EMISSIONE) NECESSARI AD OTTENERE LA STABILIZZAZIONE
DELLA CONCENTRAZIONE A VALORI PREFISSATI.
Vengono fornite le traiettorie di emissione globale che portano alla
stabilizzazione della concentrazione a dati valori: 350,450,550,650, 1000
ppmv. C’è stata una battaglia tra
scienziati ed economisti (questi ultimi nel Working Group III) per omettere o
no i valori alti. Inutile dire che i valori alti delle concentrazioni sono
stati pretesi dagli economisti dell’IPCC. Si ricordi che i rapporti IPCC vanno
poi ufficialmente sul tavolo di tutti i governi aderenti alle Nazioni Unite.
· RIFORESTAZIONE. Si
consiglia la riforestazione massiccia per aumentare la capacità di assorbimento
di gas serra da parte dei sinks.
Si mette però in guardia che una volta prodotta, l’anidride carbonica
sequestrata nei tessuti delle piante può ritornare in atmosfera nel giro di
pochi giorni, tramite per esempio incendi, come quelli a cui abbiamo assistito
nel Borneo, in California, in Siberia e nelle Amazzoni nell’ultimo anno. Si consiglia di fermare al più presto
ogni pratica agricolo/industriale di deforestazione. Il dato allarmante è che
invece, per motivi economici ed agricoli, in paesi in cui questa pratica è il
principale input economico, la deforestazione procede ad un tasso tale (ed
esponenzialmente crescente) che anche al solo tasso attuale le foreste
tropicali spariranno in soli 30 anni, meno se il tasso continua col presente
trend. Come esempio, si mostra che la copertura forestale del Nicaragua è
diminuita del 70% negli ultimi 20 anni. Quella delle amazzoni del 10-15%.
· DIFESE E DIGHE COSTIERE.
Si raccomanda la progettazione e l’approntamento di barriere e dighe
nelle coste a maggior rischio (basse e sabbiose).
· APPRONTAMENTO DI SISTEMI DI GENERAZIONE DI ENERGIE RINNOVABILI. Si considera e si suggerisce
l’uso massiccio di:
à energia solare (sia i pannelli fotovoltaici che quelli termici, che immagazzinano
energia entropizzata, ma comunque utilizzabile per il riscaldamento e l’acqua
calda);
à energia eolica (per produrre energia
potenziale elettrica tramite opportuni alternatori);
à energia ottenuta bruciando
le biomasse (per produrre: 1) energia potenziale elettrica facendo
girare turbine a vapore, e 2) calore per riscaldamento;
à energia elettrica sfruttando
il moto ondoso (utilizzando opportuni pistoni, bielle
ed alternatori)
Purtroppo, solo al massimo il 30-40% del fabbisogno (attuale) è così ottenibile.
E, come il lettore avrà ormai intuito, tale percentuale diminuisce inesorabilmente
se la crescita economica, e di conseguenza anche il fabbisogno, continuano a
crescere. L’aumento delle efficienze può al più rendere temporaneamente più lenta la diminuzione della percentuale del fabbisogno
energetico ottenibile con energie rinnovabili in presenza di crescita
economica, in quanto ancor più inesorabilmente il Secondo Principio della
Termodinamica interverrà presto a bloccare detto aumento di efficienze, non
appena i rendimenti termodinamici massimi realizzabili in macchine reali siano
stati sostanzialmente raggiunti.
· USO DI COLTURE ADATTABILI ALLE AVVERSE CONDIZIONI CLIMATICHE. (Quando possibile)
L’IPCC mette inoltre in
guardia sulla durata estremamente lunga degli effetti del cambiamento climatico
e sulla loro caratteristica ritardata.
_________________________________________
Anche se per sommi capi, queste sono le previsioni e le “prescrizioni” dell’IPCC per i governi.
A questo punto, il lettore
comprende che nessun governo può
permettersi di ignorare tali risultati scientifici così allarmanti e
semplicemente accettare che anche solo una piccola parte di quanto sopra accada
incontrastata. Da qui a prendere i provvedimenti ce ne passa e, visto che lo
scopo di questa presentazione del problema è quello di mostrare come le grandi
crisi ambientali siano in realtà la vera ragione - e lo rimarranno per lungo
tempo - dei conflitti attuali e di ogni guerra e attività militare per
stabilire la dominance di una o
un’altra alleanza nel gestire risorse ed energia, è ora necessario dare al
lettore un breve quadro storico dell’apparire delle crisi ambientali e
dell’attività scientifica, politica, e negoziale per tentare di gestirle.
2.2
LE CRISI AMBIENTALI GLOBALI E LA RISPOSTA
INTERNAZIONALE.
Questa sezione darà
lapidariamente cenni storici sulle crisi ambientali, insieme all’attività
scientifica e politico-negoziale ad esse collegata. Le connessioni militari saranno invece trattate nelle
Conclusioni.
Prima
degli anni ‘60 soltanto ristretti gruppi di specialisti - ognuno nel suo specifico campo
scientifico e con scarse interazioni col mondo esterno - si occupavano di tali
temi, anche se già molta attenzione veniva dedicata a questi problemi in quegli
ambiti scientifici. Per quanto riguarda l’effetto serra, già nella prima decade
di questo secolo il fisico Arrhenius aveva inquadrato il problema. Arrhenius
aveva notato che già da circa cento anni, dopo lo sviluppo della Termodinamica
e l’inizio della rivoluzione industriale, il consumo di combustibili fossili
era aumentato esponenzialmente, a causa dell’altrettanto esponenziale aumento
del fabbisogno di energia. Il
fisico si pose subito il problema termodinamico-radiativo dell’equilibrio
dell’atmosfera con una quantità sempre crescente di gas serra e calcolò, anche
se approssimativamente, il riscaldamento, ottenendo una stima non molto lontana
dalla verità, considerando i mezzi e le scarse conoscenze di tutti i fenomeni
complessi implicati.
Negli
anni ‘60, invece, molti gruppi si
occupavano già di diversi problemi allora già evidenti, come: i) l’inquinamento crescente,
ponendosi la domanda di quale fosse il limite naturale di assorbimento per ogni
sostanza tra le più pericolose;
ii) l’effetto serra; iii)la disponibilità delle risorse; iv) la crescita demografica imponente,
esponenziale, e il problema degli alimenti implicato; v)l’erosione
delle terre arabili, dovuta allo sfruttamento sempre più intensivo; vi) il calo della popolazione ittica, dovuto all’attività di pesca
divenuta ormai industriale; ed altri ancora.
Molti
istituti prestigiosi, come la Smithsonian Institution, il Tata Institute e
l’Istituto Landau, dedicarono intere squadre di personale allo studio di questi
problemi, anche se il confronto Est-Ovest appariva allora più pericoloso di
queste crisi, nonostante l’apparente insondabilità di alcune di esse, e la
minaccia grave in quanto si poneva la questione se lo sviluppo industriale -
capitalistico o del socialismo reale - si ponesse in conflitto con l’ambiente
naturale in quanto tale (sviluppo industriale) oppure se fossero
possibili soluzioni puramente tecnologiche.
Alla
fine degli anni ‘60 molti indicatori divennero così minacciosi che un nutrito
gruppo di scienziati ed economisti di diverse nazionalità (tedeschi,
statunitensi, norvegesi, indiani, turchi, italiani) decise di costituirsi in
organismo scientifico internazionale per l’assessment di questi problemi e per
tentare di fare delle proiezioni su base scientifica. Si costituirono a Via
della Lungara, presso l’Accademia dei Lincei, nel 1968, e per questo assunsero
il nome di Club di Roma. Subito dopo, con il finanziamento del gruppo
Volkswagen e con il supporto numerico del MIT e del suo General Dynamics Group,
diedero il via al progetto di approntare un modello complesso con molti
fenomeni interagenti, basato su un sistema di equazioni differenziali che
allora richiedeva notevole sforzo di calcolo, per lo studio dell’evoluzione di
circa 225 variabili, le cui più rilevanti ai fini descrittivi dei risultati
erano: il prodotto industriale mondiale,
il prodotto agricolo, la popolazione, le risorse naturali, l’inquinamento.
Il modello si avvaleva di un famoso modulo del General Dynamics Group del MIT,
mediante il quale tuttora praticamente tutti gli organismi finanziari, le
holdings, le imprese multinazionali e le grandi banche prevedono con notevole
approssimazione lo sviluppo industriale-economico. Non solo, ma diversi
istituti statunitensi avevano sviluppato separatamente un complesso sistema di
equazioni differenziali e di relative subroutines per la previsione e lo studio
dell’evoluzione dell’inquinamento da pesticidi in agricoltura e da metalli
pesanti e sali basici nei grandi laghi del Mid-West. Tale modulo funzionava
notevolmente bene. Si aggiunsero
al gruppo demografi e geofisici per lo studio dell’evoluzione della popolazione
e delle risorse. Il Club di Roma
commissionò un rapporto scientifico entro 3 anni, rapporto che fu
effettivamente redatto dal MIT al Club di Roma nel 1971, subito tradotto in più
di 30 lingue[61] e
sottoposto all’attenzione dei governi dei paesi più influenti.
Il rapporto mostrava che il
sistema economico-industriale-agricolo, la popolazione e il sistema ambientale,
in breve il sistema delle società umane, andavano incontro a una crisi
ineliminabile con mezzi puramente tecnologici, dovuta essenzialmente a due esponenziali:
la crescita del prodotto industriale - ossia la crescita economica - e la
crescita demografica. La crisi era prevista dal modello, in diverse varianti,
nell’intervallo temporale dal 2010 al 2040. Il modello faceva partire le
integrazioni usando come
condizioni iniziali i valori noti del 1900, permettendo quindi fino al
1971 di confrontare i risultati teorici con i dati noti osservati fino ad
allora. Le integrazioni proseguivano poi in quella che era una sia pur
approssimata proiezione. Il
modello non aveva la pretesa di fare una reale previsione, ma sondando ipotesi
diverse più che ottimistiche (infatti poi non realizzate) cercava di vedere se
i diversi tipi di crisi fossero eliminabili con provvedimenti puramente economico-tecnologici,
senza cioè rallentare la crescita economica e demografica. Le ipotesi
super-migliorative sondate furono: 1) il raddoppio, e poi il quadruplicamento
delle rese agricole dal 1975; 2)
l’introduzione, dal 1975, della fusione nucleare come mezzo di generazione
dell’energia; 3) l’introduzione di tecnologie atte a combattere l’erosione dei
territori arabili; 4)la riduzione da 20 anni a 5 anni del tempo totale di
risposta del sistema politico-economico-tecnologico alle innovazioni
tecnologiche nell’introdurle nel sistema mondiale[62];
5) l’ipotesi che le stime di risorse naturali fossero sottostimate di un
fattore 2; 6)
l’ipotesi che la società umana riuscisse ad adottare entro il 1975 misure
efficaci per il controllo della popolazione nei PVS; 7) il modello è stato fatto girare con diverse miscele di
queste ipotesi super-migliorative, fino a far girare il modello con tutte
queste ipotesi contemporaneamente. La crisi si spostava - a seconda dei casi
- al più di 20 anni, in molti casi di pochi anni, ma rimaneva: una o più
variabili andavano in overshooting
rispetto a qualche valore critico e poi in collasso, trascinando le altre. Le risorse naturali, al contrario di
quanto sembra oggi essere
nell’accezione di molti circa il lavoro del MIT, NON , anche se ovviamente diminuiscono, più o meno velocemente a
seconda del tasso di crescita del particolare run del modello. Sull’orizzonte del 2000 (che per il lavoro del MIT
era una proiezione di 29 anni) tutti i casi prevedevano riduzioni di appena il
20% o al massimo del 40%. E’ ovvio che il sistema sarebbe collassato - se tutte le altre variabili avessero “retto” -
nel momento in cui le risorse si fossero esaurite, ma il fatto è che tutti i
runs mostrano l’instaurarsi di una crisi - con collasso del sistema - prima
che le risorse naturali collassino. E’ importante che il lettore ricordi questa
caratteristica delle crisi del modello del MIT. Le crisi previste dal modello si manifestavano a volte nel
collasso del prodotto industriale, seguito dalle altre variabili, con un
overshooting di inquinamento sfasato in delay e un overshooting della
popolazione, che piccava per ultima. A volte il modello dava collasso prima nel prodotto agricolo (alimenti),
seguito da quello industriale, dopo che il sistema aveva tentato di allocare
sempre più capitali per arrestare il collasso agricolo. A volte (nel caso della
“energia a costo trascurabile”, con la fusione controllata) i capitali -
liberati dal fardello del finanziamento dell’energia - permettevano una crescita
economica ancor più rapida, con conseguente esplosione dell’inquinamento,
conseguente collasso del prodotto agricolo, e collasso finale della
popolazione, che in diversi casi piccava tra il2010 e il 2030 a valori tra 8 e
11 miliardi di individui, per poi ridursi a meno di un miliardo sull’orizzonte
del 2100. A volte era il prodotto industriale a piccare e a collassare per
primo, a causa dell’esplosione dell’inquinamento, e l’allocazione di risorse
troppo ingenti. Ogni modello veniva studiato su tale orizzonte temporale. Per
concludere questa breve carrellata sul rapporto del MIT al Club di Roma, il rapporto dimostrava che la causa
delle crisi erano i due esponenziali, come driving forces: la crescita industriale
e la crescita demografica. Si dimostrava che queste ultime non potevano
continuare fino al periodo 2020-2050. Soprattutto, la serie di studi numerici
dimostrava che la crescita economica non poteva continuare per sempre in un
mondo non infinito come il nostro, e in cui ogni sorta di limiti compare prima
o poi per ogni variabile. I limiti sono da intendere come valori superati i
quali la variabile collassa, rendendo prima instabile il sistema e poi
trascinando via via tutte le sue variabili chiave in collasso, causando alla
fine il collasso del sistema. Lo studio dimostrava che la
soluzione - anzi il ventaglio di soluzioni - passavano tutte per una graduale
frenata della crescita industriale e della popolazione, accompagnate da
miglioramenti tecnologici e shifts economici significativi.
Le
reazioni dei governi, dei politici e della maggioranza degli economisti nel
mondo furono un vero putiferio. Il
mondo industrializzato occidentale -capitalistico- sosteneva che non si erano sondate abbastanza le
virtù del mercato e della tecnologia, cioè che nel modello non erano state
inserite le capacità di risposta relative. Questo claim degli occidentali non
aveva alcun fondamento, in quanto il modulo del General Dynamics Group del MIT
era (ed è tuttora) usato per ogni previsione di sviluppo industriale ed
economico in tutto l’occidente (e ora nel mondo). I meccanismi di risposta del
sistema tecnologico in World3[63]
erano ben presenti, e riproducevano numericamente ciò che fanno tutte le
multinazionali hi-tech in borsa e nella produzione. Semmai, i meccanismi in
questione erano in World3 troppo efficaci
e pronti, e in definitiva
troppo ottimistici. Il MIT, d’altra parte, fece questa soprastima dei
meccanismi dell’interazione del mercato con la tecnologia intenzionalmente,
proprio per controllare se le crisi erano o no eliminabili senza toccare la
crescita. Il mondo del blocco orientale, da parte sua (sia quello dei paesi
alleati dell’URSS che la Cina e gli altri paesi socialisti) gridò che questo
avveniva (nel modello) soltanto perché esso funzionava con i meccanismi
capitalistici e non conteneva i meccanismi regolanti del mondo socialista.
Sbagliava anche il blocco orientale, perché in
nessuna parte nel modello era incluso un meccanismo politicamente
capitalistico: il sistema allocava risorse all’agricoltura, all’industria, o a
combattere l’inquinamento senza distinzione alcuna delle classi sociali a
favore delle quali era fatto. In altre parole, nel modello, la popolazione è
approssimata come un tutto unico, e i provvedimenti tecnologico-economici presi
da World3 potevano benissimo essere presi dalla Casa Bianca come dal Politburo,
dal Gosplan, da Downing Street governata dai Tories o dall’esecutivo della Cina
Popolare. Infine,
anche i PVS non-allineati diedero addosso al lavoro scientifico del MIT,
sostenendo che l’arresto della crescita avrebbe implicato che la loro
condizione di sottosviluppo sarebbe stata cristallizzata per legge. Questi
ultimi in particolare sbagliavano anch’essi, perché il rapporto del MIT parla
chiaramente ed estesamente di una redistribuzione
di risorse tra Nord e Sud del mondo, energia e prodotto industriale, come
condizione sine qua non per poter
arrestare la crescita su valori sostenibili da tutta l’umanità, senza guerre e
conflitti che altrimenti sarebbero inevitabili.
Alcuni
governi di paesi occidentali, come gli USA e la Gran Bretagna, spaventati per
la minaccia del messaggio portato dagli scienziati del Club di Roma[64], istituirono addirittura delle task--force interministeriali per screditare
il Club di Roma, nonché per
diffondere false accezioni ed interpretazioni sul lavoro scientifico del MIT. Questo sforzo propagandistico,
appoggiato abbondantemente dai media, simile a quello odierno di gran parte
dell’industria pesante USA per tentare di screditare l’IPCC agli occhi dei membri
del Congresso, fu molto efficace, previde spese di milioni di dollari (in
valuta del 1972!!), nonché l’arruolamento di diversi professori di economia -
come il prof. Nordhaus, che scrisse un libro di risposta al lavoro degli
scienziati del MIT intitolato “Models of
Doom”[65] . Il prof. Nordhaus scrisse diverse
volgarità grossolane dal punto di vista scientifico, come l’asserzione che il
Secondo Principio della Termodinamica non c’entrerebbe nulla nella catena
produttiva del processo industriale-economico, sorvolando (o ignorando) che
alla base di ogni produzione - capitalistica o no - c’e sempre la necessità di
energia in forme usabili e non entropizzate, e cioè è sempre necessario
produrre lavoro. Siccome il lavoro viene prodotto dai combustibili fossili
bruciandoli ed ottenendo calore, succede che - con o senza l’assenso di
Nordhaus e di altri esimi economisti - la fisica c’entra per forza, e in
particolare c’entra il Secondo Principio.
Nordhaus, inoltre, tentò (con successo, purtroppo[66])
di vendere ai media una distorsione fondamentale delle crisi previste dal
rapporto del MIT, e cioè che esse sarebbero dipese dal fatto che i modelli
arrivavano al collasso per l’esaurimento delle risorse. Falso! Leggere per
verificare.
Per
disgrazia dell’establishment economico occidentale di allora, lo shock
sollevato dal lavoro del MIT si aggiungeva a quello provocato dai lavori di
diversi geofisici e geologi americani - di diverse università - guidati dal
geofisico prof. King Hubbert, che aveva previsto con successo un decennio prima
il picco del tasso di estrazione del petrolio dal territorio statunitense
avvenuto come previsto nel 1970. Hubbert faceva vedere, che a causa della
complessa geometria dei pozzi, non è possibile estrarre il 100% della giacenza
iniziale del pozzo all’atto della scoperta, perché presto - quando la giacenza
è ridotta al 50%-60% - per estrarre è necessario pompare dentro vapore ad alta
pressione per spremere fuori il residuo, e arriva il momento in cui l’energia
necessaria per fare ciò supera quella ottenuta bruciando il petrolio stesso. A
quel punto esatto - fece notare il prof
Hubbert - l’estrazione
finisce semplicemente perché non ha più senso estrarre il
petrolio, in quanto il pozzo diventa non più una sorgente di energia, ma un
assorbitore - a prescindere dal prezzo, di nuovo, con buona pace di certi
economisti. Lo studio di Hubbert prevede che il picco del tasso di estrazione
di un pozzo - o di una intera regione petrolifera - avviene quando la giacenza
totale è circa il 50% del valore iniziale. Hubbert aveva previsto anche che il
tasso del petrolio su scala mondiale
avrebbe piccato - per poi scendere per sempre - intorno al 2020. Anche in questo caso fu sollevato un
polverone, cercando di accreditare presso i media la versione secondo la quale
i geofisici americani si erano sbagliati e che la diminuzione del tasso di
estrazione dai pozzi USA - realmente avvenuta nel 1970 - era in realtà una decisione
politica del governo statunitense
“che aveva deciso di sfruttare prima il petrolio del Medio Oriente per
preservare le scorte Americane”.
Questa balla resiste tutt’oggi nei media - ogni volta che affiora la
questione della durata del petrolio - e nella diffusa opinione pubblica, anche
se non ha mai preso piede negli ambienti geologici e geofisici connessi al
problema.
Il
polverone sollevato - con una certa efficacia - contro i risultati del MIT finì
così come quello sul petrolio, che doveva assolutamente essere percepito
dall’opinione pubblica come una risorsa “che durerà ancora centinaia di anni”.
Ciononostante, i dati reali erano conosciuti anche da coloro che cercavano di
tacerli all’opinione pubblica o di falsificarli. Inoltre altri dati sull’inquinamento, sull’effetto serra,
sulla produzione agricola che non teneva - pur aumentando - il passo della
popolazione, sulla desertificazione e sull’erosione dei territori arabili[67],
continuavano ad affluire. Ciò aumentava il grado di preoccupazione latente nei
governi, fino all’inizio degli anni ‘80, in cui il primo summit sul clima - sia
pur con il mondo scientifico su posizioni non ancora univoche - gettò una luce
niente affatto rassicurante su uno dei principali effetti della crescita
industriale e del fabbisogno annuo di energia: l’effetto serra.
La
misura era colma - nonostante i tentativi (ad Est e ad Ovest) a volte di ignorare, a volte di
sminuire, e nel 1987 le Nazioni Unite, sotto mandato dell’Assemblea Generale,
istituiscono la Commissione Bruntland[68]
sullo sviluppo sostenibile.
Il celebre rapporto della Commissione Bruntland (“Our Common Future”[69])
stabiliva finalmente[70]
che i lavori scientifici dei pregressi 20 anni non erano poi così sballati come
si era sostenuto fino a pochi anni prima. In particolare, si stabiliva con
criteri scientifici che lo sviluppo - usato in realtà come diplomatico
sostitutivo di crescita - non era
necessariamente sostenibile, ma che dovevano addirittura essere soddisfatti
dei criteri generali perché lo diventasse
(non consumare risorse a tassi maggiori di quelli a cui possono essere
ripristinate, etc.). I ricercatori
ovviamente hanno sorriso di tanta ufficialità per stabilire criteri così ovvii,
ma comunque i risultati della Bruntland hanno costituito una vittoria
fondamentale per la continuazione del processo scientifico di indagine su quei
temi, il suo incremento di finanziamento da parte dei governi, e in generale
per il processo di sensibilizzazione sui temi delle crisi ambientali
globali. Ovviamente, i governi non
stabilirono in pratica
assolutamente nulla, sebbene all’interno nacquero in silenzio interi
maxi-progetti, come lo USGCRP[71].
Solo
un anno dopo, per l’infuriare delle polemiche che l’industria pesante e la
maggioranza degli economisti avevano scatenato contro il processo scientifico
sull’effetto serra e le necessarie misure, che minacciavano di nuovo la
Crescita Economica e il Mercato, nel 1988, sotto mandato dell’Assemblea
Generale, le Nazioni Unite, con il coordinamento del mondo scientifico guidato
dall’ICSU, affidano all’Organizzazione Meteorologica Mondiale (WMO) e al
Programma Ambiente delle Nazioni Unite di fondare un organismo internazionale
ed intergovernativo di scienziati di ogni disciplina, con l’obiettivo di
seguire permanentemente il problema dell’effetto serra, gli impatti e le
risposte, e di fornire periodicamente ai governi di tutto il mondo rapporti
ufficiali, con la massima autorevolezza fornita dal mondo scientifico.
L’organismo era l’IPCC, l’Intergovernmental Panel on Climate Change.
Il
primo rapporto fu uno shock per tutti, ma soprattutto per chi aveva sostenuto
che le preoccupazioni sull’ambiente globale e le sue interazioni con la
crescita erano esagerate e fuori di luogo. La struttura e le procedure IPCC sono tali che ogni governo
rappresentato alle Nazioni Unite nomina due scienziati delegati con diritto di
voto sui rapporti ai governi, ma i lead
authors - che guidano i settori scientifici operativi dell’IPCC - sono di
nomina strettamente accademica e vengono nominati dalle comunità scientifiche
sotto guida ICSU. Il rapporto del
1990 non ottenne l’unanimità degli scienziati, anche se approvato a
schiacciante maggioranza. Si opposero i delegati di Kuwait, Arabia Saudita,
Stati Uniti ed altri paesi produttori di petrolio. Curiosamente, i due
scienziati delegati governativi USA votarono contro tutta una serie di paragrafi,
che erano stati redatti soprattutto con il lavoro scientifico di più di 4000[72]
ricercatori USA delle massime istituzioni scientifiche del paese, pubbliche e
private, governative (come il NOAA, la NASA, il JPL) e anche militari (come
Livermore e Los Alamos).
Nel
1991 esce un nuovo lavoro di Meadows et al. (“Beyond the Limits”[73])
in cui il gruppo che aveva - 20 anni prima - fatto scoppiare la problematica
della insostenibilità della crescita rinnova i calcoli, aggiornando i
coefficienti e ottenendo sostanzialmente gli stessi risultati. Soprattutto,
inoltre, confrontano i dati
osservati dei passati 20 anni con
le loro proiezioni del 1971, mostrando che gli scarti massimi riscontrati sono stati appena del 1.8%. Una bella soddisfazione, per il prof.
Meadows e il suo gruppo, che rende loro giustizia di tutte le sciocchezze
allora propalate dai media e dalle campagne organizzate dai governi USA e UK
per discreditarli. Purtroppo, come
ho potuto verificare personalmente, la disinformazione e falsificazione
principale (“le crisi del Club di Roma dipendevano dalla previsione
dell’esaurimento delle risorse non verificatosi”) regge ancora, e anche qui nel
nostro convegno qualche collega ha mostrato di avere questa lettura del lavoro
del Club di Roma. Anche molti giornalisti ambientali mostrano di avere questa
falsa lettura del famoso rapporto del MIT. Comunque, a livello scientifico, il lavoro di Meadows del
1991 conferma autorevolmente quello del 1971, e stavolta lo fa con la potenza
dei dati. Tra l’altro, il lavoro del 1971 del MIT prevedeva la concentrazione
di anidride carbonica del 1991 con un errore di appena 0.5%.
Gli
eventi precipitarono. All’inizio del 1992 l’IPCC pubblicò il celebre
Supplementary Report[74],
con il calcolo degli scenari business-as-usual
delle emissioni e delle concentrazioni di gas serra relative. A tamburo
battente venne convocato ed organizzato per il 1992 a Rio de Janeiro il primo
Summit intergovernativo UN sul clima, dove venne firmata la UNFCCC (Convenzione
quadro delle Nazioni Unite sui Cambiamenti Climatici). Si costituì il primo
schieramento intergovernativo, l’AOSIS[75],
e la Cina cominciò a formare uno schieramento, il cosiddetto G77&China,
inizialmente di 77 paesi (oggi di circa 140) che prese la guida degli interessi
dei PVS, raggruppando uno schieramento molto più vasto del vecchio schieramento
dei Paesi Non Allineati del tempo del dominio dei due blocchi.
La
Convenzione fu caratterizzata per un testo molto avanzato. Infatti, l’Art.
2 recita che l’obiettivo dei paesi
aderenti è quello di riportare la concentrazione dei gas serra in atmosfera “ad
un livello tale da non essere pericoloso per il sistema climatico”. Nella Convenzione UNFCCC si afferma
chiaramente che i paesi industrializzati sono quelli che hanno tratto il
maggior beneficio dalla crescita delle emissioni di gas serra fin qui avvenuta
ed in atto - in quanto tale crescita ha causato la loro crescita economica. Si
continua concludendo che “il maggior sforzo economico deve quindi
gravare sui paesi industrializzati, così come l’onere dell’avvio delle misure”.
Mentre il presidente Bush
dal podio lamentò che “non si può fermare l’economia statunitense per una crisi
climatica su cui il mondo scientifico non sa indicare con esattezza tempi e
intensità”, in altra sede firmava l’articolo sul principio di precauzionalità, che afferma che “ove sia presente il pericolo di vaste distruzioni irreversibili, la
mancanza di certezza matematica sull’entità della crisi non può essere addotto
come motivo per non prendere alcuna misura”. Contemporaneamente alla firma del primo trattato della
storia sul clima, Bush faceva approvare un aumento del budget del pacchetto di
programmi scientifici dello USGCRP da 2.5 a 4 miliardi di dollari l’anno... Da
quell’anno, la NASA cominciò a ricevere più soldi per le sue attività di
modellistica ed osservazione climatica che per tutto il resto delle sue
attività spaziali civili.
I
paesi firmatari cominciarono il processo di ratifica (il Parlamento Italiano
ratificò la UNFCCC e la convertì in Legge dello Stato nel gennaio 1994, con
L.65/94[76].
All’inizio del 1998, la Convenzione fu ratificata da 165 parlamenti su
180. La UNFCCC istituì
inoltre un organismo negoziale per installare un Organo Supremo dei governi di
tutto il mondo per prendere le future decisioni con valore di legge sul clima. Era l’INC[77],
che ebbe il compito di istruire i meccanismi, i regolamenti e le sottostrutture
della Conferenza delle Parti (COP), che si sarebbe riunita a Berlino nel marzo
1995 per la prima volta, per poi essere convocata annualmente. Visto che la
Convenzione era piena di buoni principi, ma senza il potere forzante di legge,
l’unica cosa concreta che fu stabilita a Rio era proprio la COP, Organo Supremo
sul clima che stava alla UNFCCC come un parlamento nazionale sta alla propria Costituzione.
Nel
frattempo, sintomi come l’aumento della frequenza degli uragani nelle zone
tropicali degli oceani e l’aumento della frequenza dei tornado negli Stati
Uniti, così come l’aumento della frequenza delle siccità e delle alluvioni - in
termini di trend sul grande periodo, al di là cioè delle oscillazioni
climatiche periodiche e/o stocastiche, spingevano ancora sui governi - e
sull’industria delle grandi riassicurazioni - provocando un’ulteriore
accelerazione negoziale.
A
livello scientifico, i modelli e l’analisi teorica facevano ormai grandi passi,
e fu sconfitta nel 1994 l’ultima obiezione di una parte di ricercatori dei
paesi petroliferi e dei delegati governativi USA, che si aggrappava ad una
discordanza di qualche decimo di grado (0.3-0.4°C) tra la riproduzione
teorica con i modelli del riscaldamento globale osservato in questo secolo e i
dati, nel senso che i modelli davano un riscaldamento 0.3-0.4°C maggiore dell’osservato. Il problema fu risolto inserendo nei
calcoli il - sia pur lieve - raffreddamento indotto dal particolato in aerosol
da SO2 e SO3 . L’anidride solforosa e la solforica si
producono infatti in massicce quantità nel processo di bruciamento nelle
centrali elettriche a carbone. La nube del particolato ha breve raggio di
azione (poche centinaia di chilometri) e breve durata (qualche giorno). Per
questo non influenza sostanzialmente il clima globale, tranne per quell’effetto
calcolato di raffreddamento lieve. I modelli del secondo assessment (SAR), in
preparazione per l’approvazione formale all’inizio del 1995, ottennero per la
prima volta l’unanimità, costringendo infatti anche i delegati di Stati Uniti,
Arabia Saudita e Kuwait ad approvare ill rapporto.
La
prima Conferenza delle Parti, a Berlino nel marzo 1995, stabiliva che gli oneri
e gli impegni addebitati ai paesi industrializzati nel testo della Convenzione non erano adeguati al compito di combattere
l’effetto serra senza danneggiare gli interessi dei PVS, non responsabili
del vistoso aumento (del 30%)
della concentrazione di anidride carbonica finora registrato. Il Summit
di Berlino fu sul punto di fallire completamente, quando gli Stati Uniti, il
Canada, l’Australia e la Nuova Zelanda pretesero - per andare verso un trattato
sul clima che prevedesse l’inizio delle riduzioni - che anche i paesi poveri se
ne facessero in qualche modo carico.
La sollevazione della Cina, dell’India, del Brasile, dell’intero e
appena costituito African Group, di tutti i paesi asiatici (tranne la Corea del
Sud) e di tutta l’America Latina impedì il fattaccio, e gli USA accettarono di
capitolare, non riuscendo a trovare una ragione pronunciabile per sostenere
che, dopo aver loro stessi (soprattutto) e l’Europa creato il problema,
dovevano essere anche i paesi poveri a spartirsene l’onere. Fu decisivo il
fatto che la Cina e l’India minacciarono velatamente di passare a produrre
tutto il loro fabbisogno di energia a carbone[78]...
La
COP istituì dunque l’AGBM[79],
il cui mandato era quello di individuare adeguati inasprimenti degli oneri di
riduzione delle emissioni a carico dei soli paesi industrializzati (“Annex I
countries”), da fare entrare in vigore entro la COP3 - da tenere a Kyoto nel
dicembre 1997 - tramite un “Trattato con forza di legge”. Era
già un risultato storico per il mondo scientifico, che a seguito di calcoli e
lunghi studi per salvare l’umanità dai peggiori impatti da effetto serra, per
la prima volta forzava decisioni governative in direzione potenzialmente
minacciosa per la crescita e il mercato. La COP è continuamente una interazione
dei membri governativi con gli scienziati, che sono presenti sia come membri
del SBSTA- corpo scientifico della Conferenza delle Parti - che come
osservatori. Nella COP sono rappresentati - senza diritto di voto - anche i
rappresentanti dell’industria e del mondo ambientalista.
Ormai
il processo scientifico era a valanga. Nel dicembre 1995 (1-11) a Roma la XI
Assemblea Plenaria dell’IPCC ratificava all’unanimità il Second Assessment
Report (altrove descritto in questo articolo). La ratifica avvenne dopo una
battaglia accanita - articolo per articolo[80]
- dei due delegati USA con diritto di voto - peraltro contro la stessa
delegazione scientifica USA che contava più di cento membri - insieme ai
delegati di Kuwait e Arabia Saudita per tentare di redigere il sommario per i
governi in forma edulcorata rispetto al documento scientifico già approvato
all’unanimità. In pratica ogni 3-5 minuti, per 10 giorni, i sei delegati di
USA, Kuwait e Arabia Saudita hanno tentato di fare approvare, in ogni articolo,
delle espressioni come “potrebbe”, “forse”, “probabilmente” in affermazioni
scientifiche del documento-sintesi per i governi, mentre nel documento
scientifico integrale (di cui la sintesi per i politici era solo il riassunto)
loro stessi avevano approvato - all’unanimità - espressioni contenenti assoluta
certezza. Il lettore deve
immaginare il Chairman, lo Svedese prof. Bolin, che bocciava uno dopo l’altro i
tentativi di “mitigazione” del documento riassuntivo per i governi, con
osservazioni tipo: “ma perché mai lei vuole dire che questa affermazione deve
essere riportata in forma dubitativa, quando lei stesso nel documento
scientifico integrale la ha già approvata in forma di certezza, e soprattutto
quando proprio l’intera sua vasta delegazione scientifica è stata responsabile
della dimostrazione che andava usata l’espressione di certezza? Perché vuole
che il suo governo legga qualcosa di diverso rispetto al documento scientifico
integrale, nel documento che lo riassume??”. Per finire la descrizione dello
scontro, bisogna dire che il documento ha rischiato di non essere approvato,
perché a metà percorso gli Stati Uniti hanno preteso di cambiare unità di
misura della produzione nazionale di anidride carbonica: volevano che nel
rapporto per i governi fossero usate non le unità del rapporto integrale
scientifico, e cioè tonnellate di CO2 pro capite, da cui risultava
che un cinese produce 20 volte meno CO2 di uno statunitense, ma bensì tonnellate di CO2
per unità di prodotto nazionale lordo in dollari USA, da cui sarebbe risultato
che gli americani “fanno fruttare bene l’inquinamento”. La battaglia con i
delegati cinesi si è risolta mantenendo le unità del rapporto integrale, ma
menzionando che “potrebbero essere usate anche altre unità riferite al prodotto
economico”. La Cina ha fatto registrare in nota il suo disaccordo.
Il
lettore ha così compreso come il rapporto-riassunto per i governi “Synthesis
for Policy Makers” è stato
combattuto fino all’ultimo, per fare arrivare il messaggio meno allarmante
possibile ai governi. Tutto
sommato il tentativo USA è fallito sostanzialmente.
Un
anno dopo, a Luglio 1996 nella COP2 di Ginevra, tutti i governi facevano
ufficialmente proprio- sentiti i loro staff scientifici - il SAR dell’IPCC.
A
Kyoto, a dicembre 1997 durante COP3, gli USA - per bocca della Nuova Zelanda a nome del JUSCANNZ -
proposero di porre come condizione per fare il trattato che anche i PVS
accettassero riduzioni e limitazioni. La COP stava per fallire. Vi fu una
sollevazione di praticamente tutto il mondo (UE+G77&China) che faceva
notare che tale proposta assurda era contro la Convenzione stessa e contraria
al Mandato di Berlino (AGBM).
Inoltre era contro ogni logica ed equità, visto che il problema era
stato causato dai paesi industrializzati. Il tentativo USA falliva, dopo gli
interventi per un’intera giornata che ribadivano il no (tranne i sei paesi del
JUSCANNZ). E’ rimasto famoso lo sferzante ed ironico intervento cinese, quando
il loro delegato disse: “le vostre sono emissioni di lusso, mentre quelle dei
PVS sono di sopravvivenza: una riduzione del 50%, per esempio, per voi
americani equivale ad avere un’automobile ogni due cittadini adulti invece che
una ciascuno, mentre per i cinesi significherebbe andare in autobus in 60
persone invece che in 30! Questo non è solo ridicolo, è impossibile.”
Finalmente,
la COP3 approva il Protocollo di Kyoto, primo trattato sul clima con forza di legge, che prevede
complessivamente una riduzione delle emissioni di anidride carbonica dei paesi
industrializzati del 5.2% rispetto al livello del 1990 entro il 2012. Molto poco rispetto alla
riduzione necessaria (del totale
delle emissioni, non solo di quelle del Nord del mondo) del 60%-80% rispetto al 1990[81]. Dal punto di vista quantitativo, il
trattato è praticamente nullo per combattere l’effetto serra, ma è comunque il
primo esempio, è un inizio, e costituisce una riduzione del 24% in media
rispetto al livello di emissioni di gas serra che si sarebbe raggiunto nel 2012
senza trattato. Inoltre, il Trattato costituisce una sconfitta per quella parte
(la maggioranza) del mondo industriale ed economico che ha combattuto per non
fare approvare nulla. Per esempio,
era presente una delegazione di 100 tra senatori e rappresentanti del Congresso
USA per convincere la delegazione governativa a mandare a monte il
Trattato. La posizione della
delegazione USA era di inserire nel trattato una “riduzione dello 0% rispetto al
1990” entro il 2010,
quella dell’UE di ridurre del 15% rispetto al 1990 entro il 2005, quella
dell’AOSIS del 25% entro il 2005, e quella del Giappone di ridurre del 5% entro
il 2010, sempre rispetto al 1990 (con un subdolo meccanismo di sconto per chi
produceva più PIL, per cui la vera riduzione sarebbe stata, per USA e Giappone,
inferiore al 2% secondo il protocollo proposto dal governo giapponese). L’industria pesante USA
aveva organizzato un cartello con circa 130 aderenti che ha finanziato spot
radio-televisivi per circa 50 milioni di dollari all’anno per spaventare
l’elettore americano. La campagna pubblicitaria diceva che “l’economia
americana perderà colpi e competitività con il trattato contro l’effetto
serra”, che “si perderanno milioni di posti di lavoro”[82],
che “il cittadino americano perderà la sua tradizionale libertà”, che “la
benzina rincarerà di 20 volte”, etc.
Il
Trattato di Kyoto è per questo una vittoria, e costituisce un esperimento, ma
si tramuterà in una sconfitta del mondo scientifico - e dell’umanità - se
rimarrà impantanato e inapplicato, e soprattutto se non sarà seguito da altre,
sostanziali misure di riduzione...specie prima che sia troppo tardi. Il Protocollo di Kyoto prevede la
prima riduzione di emissioni dei
paesi industrializzati per quote differenziate:
·
-8%
per l’Unione Europea, che a sua volta al suo interno ha già quote differenziate
(-6% l’Italia, +30% il Portogallo, +40% l’Irlanda, -25% la Germania, etc.)
·
-7%
gli USA (che hanno ottenuto “lo sconto”, emettendo molto di più dell’Europa
(quasi il doppio pro capite)
·
-5%
il Giappone
·
0% la Federazione Russa e
l’Ucraina
·
+10%
l’Australia (che ha preteso questo bonus minacciando la non adesione, anche se
in barba all’art. UNFCCC sull’equità, visto che l’Australia non è certo un PVS
e la sua economia è più che florida)
Tutte le riduzioni sono
calcolate sui valori del 1990. I
gas da ridurre sono (con coefficienti di equivalenza in base al global warming
potential di ogni gas):
¨
l’anidride
carbonica (CO2)
¨
il
metano (CH4)
¨
i
clorofluorocarburi (CFC)
¨
il
protossido di azoto (N2O)
¨
l’esafluoruro
di zolfo (SF6)
¨
i
perfluorocarburi (PFC)
¨
gli
idrofluorocarburi (HFC)[83].
L’Unione
Europea si è battuta abbastanza seriamente per ottenere un trattato il più
vicino possibile all’impegno preso da tutti i governi a Ginevra di seguire il
rapporto scientifico SAR. L’UE proponeva -15% rispetto al 1990 entro il 2005,
per mediare tra la proposta AOSIS (-25% entro il 2005) e quella USA (-0% entro
il 2010). Purtroppo, il prezzo da
pagare - da parte dell’UE e della comunità internazionale - per ottenere la
firma di USA e Giappone non è stato soltanto di accordare un misero -7% agli USA (che
emettono pro capite il doppio
dell’Europa), appena un -5% al Giappone e addirittura un +10% all’Australia. Si
è dovuta accettare una clausola - fortemente osteggiata dall’Europa e dal
G77&China - che permette il commercio dei diritti di inquinare, il cosiddetto
“emission trading”. In sostanza, gli USA e il Giappone, avendo ben presente il
recente collasso economico della Russia e dell’Ucraina, e ottenendo per questi
ultimi l’assegnazione di una riduzione dello 0% nel 2012 rispetto al 1990, pretendendo la possibilità di emission trading
ottengono adesso di non ridurre nulla, anzi di poter crescere le loro emissioni
semplicemente
acquistandone i diritti dai russi e dagli ucraini! Niente male, vero? Chissà se il clima -
e i processi radiativi di assorbimento nell’infrarosso - faranno distinzioni
tra le molecole di CO2 emesse dagli americani e dai giapponesi da
quelle emesse dai russi... Ci vorrebbero dei processi fisici che avvengono o
non avvengono a seconda delle convenienze del Libero Mercato...
In
totale, essendo la riduzione complessiva pari a -5%, praticamente solo l’Unione
Europea dovrà farsi carico della riduzione, visto che gli americani e i
Giapponesi provvederanno comprando i “diritti” dai Russi. Altro cedimento è stato la clausola che
permette il calcolo netto delle
emissioni, cioè le emissioni industriali
meno le quantità assorbite dai sinks forestali nazionali, in modo che i
paesi con molte foreste debbano ridurre di meno...
Nella
COP4 a Buenos Aires, nel novembre 1998, si è tentato di completare il Trattato
con i meccanismi di controllo e di sanzione, ma senza riuscirvi. Il fallimento
è stato causato dal tentativo della delegazione del governo USA di introdurre
il trading dei diritti di emissione anche con i PVS. Questi ultimi ovviamente
hanno rifiutato per i seguenti motivi:
à
gli
USA, il Giappone, il Canada e diversi altri importanti paesi (per la quota
assegnata di emissioni) non hanno ancora ratificato Kyoto, e dunque i PVS
vedono violato lo spirito della Convenzione (“se non avete ridotto ancora nulla
voi che emettete il 90% delle emissioni e che avete messo in atmosfera il 98%
della CO2, perché dovremmo vendere nostre quote che non ci sono
state assegnate, così accettando il principio di limitarci prima ancora che voi
abbiate anche cominciato?”);
à
non
ci sono assegnazioni di emissioni per i PVS, quindi non si sa quanto potrebbero
“vendere”.
Va inoltre tenuto presente
che l’Unione Europea vuole introdurre un limite all’emission trading.
Il
prossimo 25 ottobre a Bonn, COP5 vedrà una battaglia decisiva tra USA e
G77%China, con l’Unione Europea sostanzialmente ostile a USA e Giappone, e con
un crescente protagonismo dell’African Group all’interno del G77&China.
Già
dal 1996, un gruppo di ambientalisti e ricercatori britannici - il Global
Commons Institute - porta avanti una proposta nuova e dirompente sulla crisi
climatica, capace di coniugare la riduzione delle emissioni con il principio di
equità. Questo è importante non solo perché così stabilisce la UNFCCC, ma
perché è la condizione necessaria perché si arrivi ad un trattato in cui anche
i PVS abbiano il loro sviluppo garantito in maniera però da non danneggiare il
sistema climatico. La proposta del
GCI[84]
- oggi già approvata dal Parlamento Europeo e già applicata alle riduzioni di
emissioni interne all’Unione - si chiama CONTRACTION & CONVERGENCE. Essa prevede che, assunta una determinata
traiettoria delle emissioni globali totali fissata dall’IPCC, nei primi 30 anni
ogni paese abbia una quota di emissioni pro capite variabile nel tempo, che
parte dal valore attuale fino a convergere ad un valore pro capite uguale per
tutti appunto 30 anni dopo l’inizio del periodo di convergenza. Dopo quel
momento, ogni paese continua ad avere lo stesso valore pro capite, ma riducendo
le proprie emissioni nazionali proporzionalmente all’inviluppo totale. Questo
ovviamente costerà riduzioni molto più drastiche per i paesi che hanno ora
emissioni pro capite altissime, ma è l’unico modo di portare l’India, la Cina,
il Gruppo Africano, e il resto dei PVS al controllo delle emissioni. Inoltre
questo darebbe un sia pur parziale compenso (rimanendo però sempre in credito,
da colmare con tecnologia) per quello che negli ambienti negoziali viene
chiamato “il debito storico”. Questo
debito è quello che abbiamo contratto noi - paesi industrializzati - con i PVS,
dato che, avendo pompato in atmosfera il 30% in più del livello naturale di
anidride carbonica nel corso del presente secolo, abbiamo realizzato una
crescita economica e di consumi energetici, causando al tempo stesso la crisi
climatica. Non solo, ma sempre con la nostra crescita abbiamo innescato anche
la crisi energetica, rendendo inoltre materialmente impossibile altrettanta
crescita per i PVS. Andando
almeno alla redistribuzione graduale da qui a 30 anni (ma questo numero è da
negoziare) i paesi in via di sviluppo rimarranno in credito del debito storico,
ma la redistribuzione permetterà a loro di crescere in valore pro capite di
energia e di emissioni, oltre che in valore assoluto. Tutto questo avverrà però
mantenendo le emissioni totali globali in contrazione, come richiesto
dall’IPCC.
Il
G77&China ha già mostrato di gradire la proposta del GCI, con l’esplicito
assenso dell’African Group. L’Unione Europea la sta già applicando al proprio
interno. Infatti, la UE ha
accettato una contrazione totale dell’8% rispetto al 1990 entro il 2012, ma
all’interno di questa contrazione ha anche trovato lo spazio per la crescita
del 30% del Portogallo e del 40% dell’Irlanda, mentre la Germania dovrà ridurre
del 25%, la Gran Bretagna del 20%,
l’Italia solo del 6%, etc.
Passiamo a valutare gli elementi disponibili sulle altre crisi globali.
2.3 CRISI
ENERGETICA
Già nel 1997, il problema
del picco del tasso di estrazione in arrivo nella prossima decade era uscito
dalle ristrette cerchia dei geofisici e geologi, con un famoso articolo apparso
su Nature (apr.’97) con il titolo “Oil Back on the Global Agenda” e in cui si
spiegava che le riserve erano state sovrastimate dall’OPEC e dall’ex-URSS a
scopi puramente di vendita e di prezzo del barile. Nel 1998 la Petroconsultants di Ginevra - un
istituto che fornisce le consulenze geologiche e geofisiche petrolifere a tutte
le multinazionali del petrolio - mostrava che nei passati 50-60 anni il tasso
di scoperta di nuove riserve (in Gigabarili/anno) era sceso costantemente, e da
più di 40 anni è ormai trascurabile rispetto al tasso di produzione e di
consumo. Dal 1997 ogni G7/G8 ha in
agenda un rapporto dell’IEA sulla proiezione del tasso di estrazione di
petrolio e gas naturale. Nel G8 di Mosca del Marzo 1998, l’IEA mostra grafici e
dati complessivi, ritoccando in basso le riserve pretese dall’OPEC di fattori
4-5, prevedendo il picco del tasso di estrazione nel periodo 2010-2015 circa a livello
mondiale (cioè il picco della somma dei tassi di estrazione massimi possibili di ogni pozzo o
regione petrolifera, includendo ovviamente anche tutto il Medio oriente, l’Iran
e il Caucaso). A marzo 1998 la
questione viene pubblicata persino sulla rivista divulgativa scientifica
“Scientific American”, con
riferimenti, oltre che al picco in arrivo e ai dati che lo avvalorano, anche
alla previsione di King Hubbert, fatta 30 anni prima con sorprendente buona approssimazione. Sui media britannici e USA la
questione fa rumore. Sui media italiani, nulla.
Nel maggio del 1998, l’allora capo esecutivo dell’ENI, il Dr. Bernabè, rilasciava un’intervista alla rivista di economia ed alta finanza Forbes, prevedendo il picco (geologico, non temporaneo) della produzione di petrolio e gas naturale a livello mondiale nel 2005 ± 5 anni, e prevedendo anche un potente shock economico causato dall’esplosione del prezzo del barile, visto che la domanda sarebbe per un po’ continuata a crescere, mentre l’offerta avrebbe piccato. Sui media italiani, come sempre, niente.
Cosa
avviene sul fronte negoziale circa la crisi energetica e le sue micidiali
interazioni con la crisi climatica e le necessarie riduzioni di consumo di
energia fossile? Nulla. L’unica sede in cui - sommessamente - si discute sono i meetings del G8, ma su questo
aspetto l’eco sui media, di nuovo, è pari a 0.
Un
cenno importante su un particolare aspetto dell’interazione di questa crisi con
la crisi climatica, che così tanto è intrecciata con il problema dell’energia,
fino a diventare quasi un tutto unico. Quando si verificherà il picco, come
tutti gli analisti - scientifici ed economici - hanno previsto, i prezzi
esploderanno. Anzi, si prevede - come ci spiega Bernabè dalle colonne di Forbes
- che i prezzi cominceranno a salire quando la derivata seconda della curva del
tasso di produzione diventerà negativa.
Cosa ci si deve aspettare allora? Un violento shock economico, dai
risvolti complicati, tranne per alcuni elementi facilmente prevedibili:
·
I
militari diranno che la loro quota di carburanti non si tocca, in quanto
“strategica”;
·
Le
quote dei bunker fuels - quelle per alimentare il grande trasporto marittimo -
non si potranno toccare, in quanto non c’è proprio altro modo di trasportare i
grandi carichi di fertilizzanti, acciaio, cemento, il petrolio stesso là dove
l’oleodotto non può arrivare, etc., se non via cargo marittimo;
·
il
trasporto aereo civile crollerà per motivi tariffari e di disponibilità di
kerosene;
·
la
quota di petrolio disponibile per il trasporto su gomma crollerà di una
frazione superiore allo shortage
totale, a causa dei primi due punti;
·
anche
l’industria dell’auto e il suo indotto crollerà di conseguenza;
·
i
prezzi di ogni trasporto e in particolare dei prodotti alimentari saliranno
cospicuamente.
A questo punto, senza altre variazioni, le emissioni di anidride carbonica diminuiranno apprezzabilmente. Una “soluzione” per la crisi climatica? Purtroppo, no, e per due motivi:
1) Tranne per i trasporti
aerei, in cui l’energia elettrica non è di aiuto, il sistema risponderà
spostando l’uso di combustibile dal petrolio e gas naturale al carbone. Infatti quest’ultimo, estrapolando
linearmente il tasso attuale di consumo si esaurirà tra circa 80 anni, e
tenendo invece conto del trend si esaurirà tra 40 anni circa. Se si tiene conto della prossima crisi
del petrolio e della sua graduale sostituzione con il carbone nel produrre
energia, il periodo di disponibilità del carbone potrebbe ridursi a 20-30 anni
dopo l’inizio della crisi del petrolio. La disponibilità del carbone per almeno
20-30 anni causerà un massiccio uso del carbone, e la sua caratteristica
energetica di fornire meno energia per mole di carbonio rispetto agli
idrocarburi, porterà il sistema a produrre circa 33-35% di CO2 in
più rispetto al petrolio per unità di energia prodotta. Si stima che questo compenserà - approssimativamente - la
diminuzione delle emissioni causata dal minor uso di petrolio. Il conto
esatto dipenderà dall’entità della crisi economica indotta e dalla relativa
contrazione dei consumi.
2) la seconda ragione è che
il picco del tasso di produzione del petrolio, e perciò l’approssimativo inizio
del calo potenziale delle emissioni avverrà tra 10-15 anni. In capo a questo
periodo, la concentrazione di anidride carbonica - anche se Kyoto venisse
applicato scrupolosamente - aumenterà molto probabilmente oltre le 400 ppmv, e
nel periodo trentennale successivo - dominato dal carbone - supererà anche le
700 ppmv. Ciò è sufficiente per avere una crisi climatica ben più forte di
quella descritta precedentemente, che faceva i calcoli usando una
concentrazione tra 500 e 560 ppmv.
Cosa
ci si può aspettare, a livello di schieramenti e a livello militare?
Questo è complicato, ma
alcune strutture e trend si delineano all’orizzonte. Per esempio, se - come è probabile e prevedibile - gli Stati
Uniti dichiareranno il Medio Oriente “strategico” per il loro fabbisogno
energetico, finirà con ogni probabilità la lunga “amicizia” con l’Europa, in
quanto quest’ultima riterrà il residuo petrolio Mediorientale altrettanto
“strategico”. Visto che la Cina e la Federazione Russa hanno un trattato
militare per la mutua difesa nel secolo venturo, e che a questo trattato si è
agganciata anche l’India, è lecito chiedersi se queste potenze lasceranno che
l’ultimo petrolio sia monopolizzato dagli Stati Uniti. E’ inoltre interessante
chiedersi che fine faranno le due ulteriori “amicizie” degli USA con Cina e
Russia.
E l’Islam? Come si
collocheranno i tanti paesi a popolazione islamica? Nei negoziati sul clima i
paesi Islamici sono schierati con la Cina... Per lo schieramento dei
paesi islamici sulla contesa del petrolio, bisogna sapere un fatto fondamentale circa la prossima crisi
energetica. Si tratta del
fatto che, prima del picco globale del tasso di estrazione - in pratica tra 5-6 anni - il tasso di estrazione OPEC
supererà il tasso di estrazione dei paesi non-OPEC. Tale dato può essere
visto sul sito di Petroconsultants di Ginevra o su quello del King Hubbert
Center. Questo dato è al centro delle preoccupazioni ormai di ogni G8. Ora, tutti sanno che l’OPEC è
controllato praticamente del tutto dal mondo islamico. Ciò sarà probabilmente
il dato principale per la decisione dello schieramento concreto del mondo
islamico nella prossima crisi del petrolio.
Siccome
un serbatoio quasi intatto, anche se perturbativo rispetto al giacimento
Mediorientale, è quello intorno al Mar Caspio, una linea prioritaria di
alimentazione di petrolio per l’Europa è quella che passa nei Balcani. Questa
circostanza, unita alla ancor più importante fattore costituito dalla strategia
della dominance totale, è senza dubbio alla base del conflitto nei Balcani.
Altro che guerra “umanitaria”.
2.4 DEFORESTAZIONE
Il
lettore ha potuto valutare - nella sezione sulla crisi climatica che a tante
altre crisi è agganciata - il ruolo chiave delle foreste - e in particolare
quelle tropicali - nell’assorbire e sequestrare l’anidride carbonica. In aggiunta a ciò, nelle foreste vive più della metà della
riserva di biodiversità del pianeta. Il ruolo di scambiatori di umidità
conferisce inoltre alle foreste un’importanza di valenza agricola, in quanto
anche il regime di precipitazioni è influenzato dalle grandi foreste per
notevoli estensioni attorno ad esse.
Purtroppo,
i dati non sono confortanti.
Oltre ad essere minacciate dalla crisi climatica (v. sezione relativa)
tanto che si può calcolare approssimativamente il tempo in capo al quale il
riscaldamento intaccherà il grosso delle foreste tropicali, queste stanno
essendo eliminate - ad un tasso esponenzialmente crescente - dall’uomo. Infatti, ancor prima di essere usate
come sorgenti di legno e carta, le foreste vengono rase al suolo con tecniche slash and burn per motivi agricoli ed
economici in diversi PVS. Prima di tutto, senza opportune politiche e
tecnologie agricole si rende necessario sempre più terreno da coltivare.
Secondo, l’erosione dei territori arabili da supersfruttamento agricolo - dove
le necessarie tecnologie sono disponibili - richiede il reperimento di sempre
più territori arabili, per la progressiva riduzione e scomparsa dell’humus.
Terzo, le tecniche di piantagione intensiva di nuovi alberi da frutto
richiedono di bruciare periodicamente diverse zone, ma l’effetto serra in atto
con i lunghi periodi di siccità manda spesso questo incendi fuori controllo,
con conseguenti incendi addirittura sulla scala regionale (vedi Borneo,
Siberia, Amazzoni, Florida, Canada) e che durano anche molti mesi.
Esiste
una Convenzione sulla deforestazione, ma non è ancora in piedi il necessario
processo negoziale, con relativo organo decisionale. Ciò è dovuto soprattutto al fatto che la
deforestazione applicata da diversi PVS (v. per es. il Brasile) è a tutti gli
effetti una fonte di prodotto nazionale lordo. Per questo motivo, se i paesi
industrializzati vogliono negoziare sulla deforestazione, devono essere
disposti a pagare l’ammanco di PIL che si creerebbe nel fermare la
deforestazione. O a compensare l’equivalente somma annullando debiti esteri,
oppure fornendo tecnologia per generare energia pulita, etc. Per ora, nulla di tutto
questo appare nelle intenzioni dei paesi del Nord del mondo. Per questo motivo, niente negoziati
sostanziali.
2.5
CRISI IDRICA
Lo scarseggiare delle
riserve acquifere già discusso nella sezione climatica costituisce soltanto una piccola parte del problema.
Infatti, le principali cause della crisi idrica sono - anche qui - 1) la
crescita economica, con il crescente fabbisogno d’acqua dell’industria e delle
metropoli, dove sono in continuo aumento il consumo pro capite d’acqua, e 2) la crescita demografica, che
moltiplica il fabbisogno d’acqua essenzialmente per motivi agricoli, ossia per
la produzione di alimenti.
Non
esiste attualmente alcuna Convenzione specifica né un processo negoziale per
arrivare ad un Trattato con relativa legislazione idrica, con le modalità e i
flussi di utilizzo.
Nella
sua relazione del 1998, il Segretario Generale UN, Sig. Kofi Annan ha lanciato
l’allarme sulla crisi idrica in atto e sulle sue dimensioni in crescita,
associandosi all’analisi del direttore esecutivo dell’UNEP, il tedesco K.
Toepfer, che prevede che il secolo su cui ci stiamo affacciando sarà segnato da guerre e conflitti per il controllo e
l’utilizzo dei flussi d’acqua.
Va
qui ricordato il dato del Fiume Giallo, che l’anno scorso ha subito così
massiccio prelievo a monte della foce per motivi industriali, agricoli, e per
il fabbisogno idrico delle metropoli, che per circa 220 giorni su 365 il flusso
a mare era praticamente nullo.
Anche
i conflitti futuri sull’acqua saranno dunque connessi al problema della
produzione agricola, industriale e dell’energia, visto che le principali
motivazioni di consumo idrico sono quelle della siderurgia, dell’irrigazione e
dei circuiti di raffreddamento delle centrali a carbone.
2.6
CRISI DEMOGRAFICA
La
crescita della popolazione, come correttamente calcolato dal MIT per il Club di
Roma nel 1971, è uno dei due esponenziali responsabili delle crisi e del
collasso del sistema mondiale in cui viviamo. Abbiamo passato da poco il
livello dei 6 miliardi di persone.
Secondo un recente studio del World Watch Institute di Washington, se
gli attuali abitanti del pianeta dovessero vivere allo standard degli Stati
Uniti, dovremmo avere altri tre pianeti come il nostro, per poter fornire terre
arabili, energia, cibo e materie prime a sufficienza. Siamo ad un’altra
dimostrazione dell’insostenibilità dell’attuale regime economico dominante. Non
di crescita abbiamo bisogno, che è insostenibile già per i soli paesi industrializzati,
ma di redistribuzione...[85] Il pianeta, le cui terre arabili
sono tra l’altro in erosione o addirittura soggette a invasione desertica, non
può alimentare più di circa 7-8 miliardi di persone, secondo le stime più
ottimistiche. Invece, secondo ogni valutazione, senza interventi da parte dei
paesi industrializzati di consistente aiuto alimentare, tecnologico, di
istruzione, ed economico ai PVS, in particolare all’Africa, all’India e al
resto del S-E asiatico, la popolazione continuerà a crescere, fino a piccare
intorno agli 8-10 miliardi di individui. Tale picco sarà purtroppo seguito da
un forte collasso. Il modello
“standard” del MIT prevedeva il picco a 8-8.5 miliardi di individui, verso il
2030-2035, dopo il collasso del prodotto industriale (picco nel 2020) e del
prodotto agricolo (2020-2030). I
demografi delle Nazioni Unite prevedono un picco tra 8 e 10 miliardi intorno al
2040.
Molti
analisti sostengono che la popolazione è una “variabile secondaria”, nel senso
che la crescita industriale, associata tra l’altro con la crescita delle
differenze di distribuzione, in presenza di un pianeta non infinito, e cioè con
risorse finite, è la vera causa - o per lo meno il vero motore -della crescita
demografica, per via della povertà e dell’ignoranza indotte dal fatto che il
residuo vitale per i PVS si restringe sempre di più e sempre più velocemente.
Non
ci sono convenzioni, trattati, o negoziati di sorta sulla popolazione. Forse questi potranno essere imposti
dai futuri sviluppi delle trattative sulla crisi climatica, se, come sembra, si dovrà passare ad uno
schema di convergenza ad uno share uguale pro capite di energia per annum.
Infatti, quest’ultima circostanza imporrebbe contestuali negoziati sull’arresto
della crescita demografica, per evitare che alcuni paesi possano tentare di
ottenere più share di energia semplicemente aumentando la popolazione.
2.7
DESERTIFICAZIONE
A causa della concomitanza
di diversi fattori, come la crisi climatica, la crisi idrica (di natura
industriale-metropolitana), la indisponibilità delle migliori tecnologie ormai
monopolio di multinazionali come la Monsanto Industries, la tendenza ad abbandonare
le zone rurali per convergere nelle metropoli, ed altri motivi, il deserto sta
guadagnando sempre più terreno. Più del 30% dei territori arabili esistenti 100
anni fa è stato conquistato dal deserto.
La
desertificazione non riguarda soltanto i PVS: studi della NASA, del GFDL del
NOAA, e dell’UKMO prevedono per gli Stati Uniti una progressiva
desertificazione di vaste praterie del Mid-West e del Sud del paese, includendo
gran parte della California.
Un analogo studio condotto da una collaborazione - tuttora in corso -
tra la NASA, Columbia University, e il nostro Ministero dell’Ambiente mostra
che gran parte del Centro, del Sud e delle Isole italiane tenderà alla
desertificazione, con un tempo scala di dimezzamento dell’apporto idrico
intorno ai 25-40 anni.
Lo stesso vale per quasi
tutto il Sud europeo, ossia per i
paesi Mediterranei.
La
Convenzione contro la Desertificazione (CCD[86])
è stata firmata a Roma nell’ottobre del 1997, ed è in fase di ratifica. Ancora non sono in atto trattati con
forza di legge tipo quello di Kyoto, e le negoziazioni sono ferme alle
procedure. Anche nella CCD gli
schieramenti sono gli stessi: G77&China, USA con i paesi del JUSCANNZ e EU, che anche qui si distingue
notevolmente dagli USA.
Gli
unici interventi concreti - anche se con mezzi totalmente inadeguati - sono
quelli della FAO e dell’IFAD, e consistono in aiuti alimentari contro la fame.
Ultimamente si è messo in atto il progetto di creare oasi ai margini dei
deserti, finanziato dall’IFAD, ma che ha finora mostrato scarsi successi, come
descritto dalla dirigente IFAD Dr.
M. Fikri, spesso per mancanza di fondi e/o di sufficienti flussi d’acqua.
2.8
PERDITA DELLA BIODIVERSITÀ
Esiste
una Convenzione sulla Biodiversità, con la sua COP, che si è appena riunita per
stabilire i meccanismi di intervento. Ma di trattati con forza di legge per ora
non si parla.
La
crisi in questione dipende principalmente da tre fattori: 1) la riduzione del manto forestale (v.
deforestazione) 2) l’uso sempre più massiccio di pesticidi, e gli scarichi
industriali tossici e 3) l’effetto serra, con la distruzione
di habitat necessari a molte specie, dovuto al riscaldamento e ai suoi effetti
collaterali, come la distruzione di moltissimi tipi di catene alimentari.
Esiste
un problema di diversificazione genetica, con conseguenze anche remote dalle
zone in cui avviene.
2.9 CRISI AGRICOLA ED EROSIONE DELLE TERRE
ARABILI
La
necessità di avere sempre più prodotto agricolo per unità di superficie
coltivata - dovuta insieme alla crescita demografica e alla desertificazione
progressiva di terre precedentemente fertili - ha imposto l’uso di colture e
pratiche sempre più intensive, e di prodotti che accelerino ed ottimizzino la
crescita, aumentando enormemente il prelievo dei sali minerali dal terreno. Ciò
sta depauperando sempre più i terreni agricoli, con il risultato di ridurre
sempre più lo strato di humus e di terra utilizzabile (erosione).
Inoltre, la coltivazione intensiva, per ragioni di rendimento, sta
facendo sempre più uso di pesticidi, e sempre più forti, per il fenomeno della
comparsa di specie di parassiti sempre più resistenti. Anche l’uso di pesticidi
in quantità crescente è responsabile - anche se in maniera minore - della
progressiva erosione del terreno arabile.
Il
dato più preoccupante, però, è il grado di dipendenza dell’agricoltura dai
combustibili fossili. Infatti, calcolando il combustibile per le pompe,
per le macchine per arare e fare il raccolto, per il primo trattamento e per il
trasporto, ad ogni joule di emergia[87]
(emjoule) corrispondono da 10 a 20 joule di energia in combustibili fossili
usati (benzina, nafta, etc.). Questo significa che spendendo 100 calorie in
combustibili fossili si ottiene solo dal 5% al 10% di potere nutritivo. e
questa percentuale scende sempre di più. Questo potrebbe sembrare una cosa
innocua, all’aumentare dell’uso di tecnologie moderne, ma nasconde un problema
in agguato: la dipendenza fortissima della nostra capacità di produrre alimenti
dalle crisi climatica e petrolifera. Ciò ovviamente è aggravato dall’erosione,
poiché l’indotto bisogno di aumentare l’efficienza agricola aumenta sempre di
più la dipendenza dell’agricoltura dal petrolio.
Non
esistono a tutt’oggi negoziati internazionali per combattere l’erosione dei
terreni arabili, al di fuori dei pochi interventi per combattere i terreni già
in procinto di desertificarsi.
2.10
CALO PROGRESSIVO DELLE RISERVE ITTICHE.
Anche
questo è un problema, segnalato autorevolmente quasi 30 anni fa dal Club di
Roma e dal rapporto del MIT, connesso alla crescente industrializzazione ed
intensificazione delle pratiche di pesca, e all’uso di tecnologie sempre più
efficienti nell’aumentare il pescato. Già dalla metà di questo secolo, sono
state abbandonate le pratiche “di sufficienza” dei pescatori, per adottare
pratiche industriali di massa, in cui il pescato deve essere principalmente
esportato in quantità massicce, molto maggiori cioè del fabbisogno della zona
limitrofa alla zona di pesca. E’ proprio questo che ha innescato il calo delle
riserve ittiche. Oggi siamo giunti
ad un livello drammatico: le fisheries
sono diminuite di quantità dal 30% al 40%. E il problema aumenta, visto che
stiamo pescando molto al di sopra della velocità riproduttiva dei pesci.
Non si è ancora arrivati a negoziati globali, come servirebbe, mentre ci sono una serie di accordi regionali. Per esempio, l’Unione Europea ha recente imposto il fermo-pesca di Sabato e di Domenica, oltre che per un mese l’anno. Ma la misura è riportata essere largamente insufficiente.
3. CONCLUSIONI
Lo scopo principale di
questo articolo è quello di fornire al tempo stesso una visione più profonda
delle motivazioni dei conflitti in atto e all’orizzonte e una valutazione
complessiva della più formidabile minaccia per l’umanità: la miscela esplosiva
delle grandi crisi ambientali globali e dei conflitti per garantirsi l’energia,
il cibo, la dominanza per imporre tale “garanzia”, e in definitiva, la
sopravvivenza. E’
ovvio che l’aggiungere conflitti potenzialmente grandi a crisi ambientali già
di per se distruttive è folle e da arrestare, ma come fare? Sono necessarie
l’informazione e la partecipazione pubblica. Ma prima di questo, è necessario
che nasca un movimento di scienziati impegnati che dedichi le proprie
competenze e la propria autorevolezza scientifica all’obiettivo della corretta
informazione pubblica e alla pressione sui governi. Nel caso del clima, questa
attività è persino protetta per legge (L65/94, la UNFCCC ratificata dal
Parlamento).
Posso
ora concludere con l’esortazione a vedere più in là - nei conflitti regionali -
di quanto suggeriscano i soli eventi locali. Nel caso della guerra dei Balcani
–breve ma violenta e pericolosa perché stabilisce il precedente che la decisione di cosa è legittimo nei
conflitti non lo stabilisce più l’ONU ma gli USA– i motivi del conflitto erano:
·
la
dimostrazione della dominanza occidentale (mostrata ora ma che venga intesa
anche per il futuro; rivolta ai paesi slavi che non intendono “omologarsi”, ma
anche al mondo islamico mediorientale)
·
il
controllo del petrolio del Caucaso
·
l’affermazione
dell’unico modello economico tollerato dall’occidente in Europa: quello del
liberismo nell’economia di mercato.
Il nemico-Satana pubblicamente indicato in
Milosevich stava a significare ogni altro governo che nel prossimo futuro
volesse opporsi a tutto ciò. L’aggressione NATO alla Jugoslavia è stata al
tempo stesso un avvertimento alla
Cina, alla Russia, all’India e una prova generale di conflitti prossimi futuri
sulle tematiche qui esposte.
La
gravità delle crisi ambientali globali, soprattutto quella energetica e quella
climatica - così intimamente connesse - e delle altre che comunque in molti
aspetti sono connesse alle prime due deve`far riflettere sugli scenari di
conflitto che diverranno via via più probabili e che potranno portare prima o
poi al confronto con il blocco asiatico e con l’Islam. E’ probabile che l’Europa non abbia in realtà questo obiettivo,
ma in tal caso il distacco dagli USA deve avvenire per tempo.
E’
dovere di noi ricercatori di rendere chiare al pubblico queste possibilità,
rendendo così più facile smascherarle e combatterle, visto che i governi
avranno via via bisogno di fornire motivazioni dei conflitti sempre diverse, ma
mai conformi a quelle reali, che sono davvero inconfessabili.
Avendo
dedicato da 25 anni una parte non trascurabile del mio tempo di lavoro allo
studio scientifico dell’effetto serra e di altre crisi ambientali, collaborando con le Nazioni Unite al
processo scientifico sul climate change, rendendomi conto che è vitale che
almeno i ricercatori abbiano il termometro esatto della situazione, che essi
conoscano i fatti e possibilmente diano la loro partecipazione attiva ognuno
secondo le sue competenze, ho
sentito come scienziato il dovere di scrivere questo contributo a una lettura
del conflitto nei Balcani diversa da quella vigente.
Concludo
con l’appello ai colleghi ad una azione concreta: concertiamo azioni per
rendere nota la convenzione Climatica - legge dello Stato n. 65 del 1994, la
problematica del climate change e i pericoli che ci aspettano, così come
prevede l’art.6 della legge stessa (public
awareness). Possiamo corredare
questa attività con conferenze
stampa, con proposte al
governo sui temi negoziali aperti, infine sull’attuazione della legge 65/94
nelle università e nelle scuole.
[1] World Meteorological Organization
[2] United Nations Environment Programme
[3] United Nations Population Fund
[4] Food and Agriculture Organization of the United Nations
[5] World Health Organization
[6] International Fund for Agriculture and Development
[7] International Council of Scientific Unions. Comprende e coordina tutte le Unioni Scientifiche di settore ( come ad esempio l’International Union of Pure and Applied Physics, l’International Astronomical Union, l’International Union of Biological Sciences, l’International Mathematical Union, l’International Union of Pure and Applied Chemistry, etc.). L’ICSU comprende 95 corpi multidisciplinari, 25 Unioni Scientifiche di singola disciplina, e 28 società scientifiche internazionali associate.
[8] United Nations Framework Convention on Climate Change
[9] Infatti, l’altro - e famoso - trattato globale, quello di Montreal, che mette al bando la produzione di sostanze usate dall’industria (i CFC o chloro-fluoro-carbons) e che sono responsabili della distruzione dell’ozono stratosferico, tratta un problema in cui l’industria ha fatto grandi resistenze, ma poi ha ceduto perché era possibile svolgere le stesse attività usando altre sostanze (gli HFC o hydro-fluoro-carbons). Nel caso del trattato di Kyoto, invece, sostanzialmente non è possibile ridurre le emissioni di anidride carbonica nelle quantità scientificamente dimostrate necessarie senza in definitiva ridurre prima la crescita (la derivata del prodotto industriale) e in seguito il prodotto industriale mondiale stesso.
[10]Non fa parte del G77&China neanche Taiwan, ma qui non è conteggiata, perché non partecipa alle negoziazioni UNFCCC in quanto non riconosciuta dalle Nazioni Unite, e quindi - ovviamente - non rappresentata.
[11] Organization of Economic Cooperation and Development
[12] Oil Producing and Exporting Countries
[13] Alliance of the South-East Asian Nations
[14] International Monetary Fund
[15] North America Free Trade Act
[16] International Energy Agency
[17] United Nations (organization) for Cooperation Trade and Development
[18] United Nations Industrial Development Organization
[19] si intende media su tutto l’anno e su tutte le latitudini, mediata su terre emerse ed oceani, e al livello del mare.
[20] Ci sono ovviamente molti altri termini nell’equazione differenziale per la temperatura: quello di cui si parla è ovviamente quello riguardante l’effetto serra.
[21] Global Dynamics Institute
[22] Carbon Dioxide Information and Analysis Center (Boulder, Colorado, USA)
[23]Intergovernmental Panel on Climate Change, l’organismo scientifico - coordinato a livello accademico dall’ICSU - e fondato dall’UNEP e dal WMO delle Nazioni Unite nel 1988 su mandato del Segretario Generale ONU e dell’Assemblea Generale delle Nazioni Unite. Coordina tutte le attività scientifiche sul climate change a livello mondiale.
[24]National Geophysical Data Center del NOAA (National Atmospheric and Oceanic Administration, organo scientifico del governo degli Stati Uniti).
[25]United Kingdom Meteorological Office, uno degli istituti scientifici leader nel climate change science process.
[26]accelerazione tecnologica ed economica che sta avvenendo proprio in questi anni.
[27]National Snow and Ice Data Center (USA)
[28] Vostok: stazione scientifica dell’URSS prima e ora della Federazione Russa, nell’interno dell’Est Antartica, a circa 1200 Km dal mare e quasi altrettanti dal polo Sud, giacente su uno spessore di più di 3500 metri di ghiaccio.
[29]E’ attualmente disponibile il data set dell’intero carotaggio, recentemente mostrato su Nature, riguardante 420 mila anni, e riportante eltri 2 pseudo-cicli di circa 100 mila anni, in tutto simili ai due mostrati qui.
[30]business-as-usual significa mantenendo l’attuale trend, cioè senza prendere alcuna misura economico-politica atta a ridurre le emissioni e in definitiva ad arrestare la crescita economica o più ancora, cosicchè le variabili continuano ad evolvere sugli attuali esponenziali.
[31] enhanced greenhouse effect, da contrapporre al natural greenhouse effect. Spesso ci si riferisce all’effetto serra antropogenico.
[32]al tasso attuale (che però tra l’altro è anch’esso in crescita esponenziale) di deforestazione, non ci saranno più foreste tropicali tra 30 anni. Se, invece di estrapolare linearmente, si tiene conto del trend esponenziale di deforestazione, le foreste tropicali spariranno in poco meno di 20 anni. Ovviamente le foreste temperate contano molto meno, visto che la funzione di assorbitore di anidride carbonica è tale che il tasso di assorbimento è proporzionale allla massa di clorofilla, e che lo “spessore” della clorofilla (massa per unità di superficie) tropicale è diverse volte maggiore di quello delle foreste nelle zone temperate.
[33]Gli assorbitori di gas serra sono chiamati sinks (anche per la caratteristica funzione di sorgente negativa nelle equazioni differenziali di continuità per i gas serra).
[34] In realtà, una frazione non trascurabile - anche se minore di quella dovuta alle alghe e al phytoplankton - di CO2 viene assorbita per processi inorganici, essenzialmente per trasformazione in carbonato e precipitazione sul fondo.
[35] E che probabilmente è proprio a fondamento dell’attualmente vigente sistema economico.
[36] I record di dati sui sedimenti calcarei ci permettono di guardare indietro fino a circa 200-300 milioni di anni, a seconda del data set (fondo marino, sedimenti a terra, etc.) anche se con minor dettaglio del carotaggio di Vostok o di altri carotaggi di ghiaccio, come il GRIP (Greenland Ice Core Project).
[37]global warming, altro termine per indicare l’effetto serra.
[38]Goddard Institute for Space Studies, NASA, è autore di uno dei 4 modelli leader a livello mondiale. E’ spesso in collaborazione con la Columbia University.
[39] Jet Propulsion Laboratory, California.
[40]Atmosphere-Ocean General Circulation Model
[41]Geophysical Fluid Dynamics Laboratory del NOAA
[42]Unified Model del prestigioso centro di Bracknell
[43]Goddard Institute for Space Studies, in collaboraz. NASA-Columbia Univ.
[44]Bureau for Meteorological Research
[45]Univ. Peking
[46]National Center for Atmospheric Research (Boulder, Colorado)
[47]Per quanto riguarda le previsioni e il modello del Club di Roma in generale (copre quasi tutte le crisi elencate in questo paper, non solo la climatica) vi faremo riferimento più avanti.
[48]Second Assessment Report, l’assessment scientifico sul climate change e tutte le conseguenze dell’effetto serra, diviso in Working Group 1 (i fenomeni) Working Group 2 (gli impatti) e Working Group 3 (le risposte, le misure per mitigare l’effetto serra), approvato all’unanimità nella 11th Plenary di Roma dal 1 all’11 dic. 1995, e pubblicato da Canbridge University Press nel maggio 1996 (Climate Change 1996) sotto il patrocinio delle Nazioni Unite (WMO e UNEP) e il coordinamento dell’ICSU. Il SAR è basato su 10.000 pubblicazioni nei 2 anni precedenti, con la partecipazione di circa 30.000 ricercatori.
[49]da crescite che piccano e che poi scendono fino a diventare negative (crisi e collasso) fino a crescite che continuano esponenzialmente per tutto il secolo venturo.
[50]Atmosphere Model Intercomparison Programme, coordinato dall’ICSU e organizzato con l’IPCC. Vi fanno capo più di cento laboratori e università.
[51] CO2-equivalenti a 560 ppmv contro le attuali 363 ppmv e le preindustriali 280 ppmv. In massa, circa 1160 miliardi di tonnellate di CO2 in atmosfera contro le attuali 750.
[52]Ondate di calore, come per esempio quella di Chicago, 1997, che causò circa 1000 morti, e quella di quest’anno in Texas e Florida, con più di 700 morti.
[53] Come, per esempio, quelli dell’anno 1997 - durati fin nel 1998 - nel Borneo, nelle Amazzoni, in Siberia, in Florida, e in Cina, o di quest’anno in Florida e Texas, e nella Foresta Amazzonica. Gli incendi dello scorso anno hanno aggiunto 1.1 miliardi di tonnellate di anidride carbonica in atmosfera, a fronte delle emissioni totali industriali dello scorso anno, pari a 22.4 Gton di CO2 .
[54]World Health Organization (Organizzazione Mondiale della Sanità)
[55] I modelli del GFDL (NOAA) e dell’UKMO prevedono per la produzione agricola a stelo degli Stati Uniti una diminuzione fino a -65% (cioè per grano, granturco, altri cereali, fieno, etc) nei prossimi 20 anni nelle zone che adesso fanno il 95% della produzione agricola USA, e un aumento fino all’80% nelle zone desertiche, che cioè continuerebbero a produrre in effetti nulla. I modelli del GISS, dell’UKMO e del GFDL, usati dalla Columbia University in una collaborazione -tuttora in atto - col Ministero Italiano dell’Ambiente, prevedono altrettanto calo (-50%_ -55%) nella Pianura Padana, e desertificazione nel Tavoliere delle Puglie e nel Sud e Isole.
[56]Questa caratteristica della crisi climatica interagisce ed è concausa della crisi idrica, n. 4 nel nostro elenco all’inizio dell’articolo, della crisi agricola, n.8, e della desertificazione (n.6).
[57]Ciò non ha a che fare con gli ammanchi considerevoli come quello del Fiume Giallo in Cina, che lo scorso anno non è praticamente arrivato al mare per 220 giorni su 365, con foce quasi in secca, dovuto invece al prelievo (industriale, agricolo, e metropolitano) superiore alla portata. Tali eventi hanno invece a che fare con la crisi delle risorse a fronte di una crescita economica esponenziale.
[58]ovviamente, non tenendo conto di quanto costa in termini economici, agricoli, e di vite umane il lasciar andare tutto senza intervento alcuno. Naturalmente non tengono conto neanche della “qualità” della vita dei sopravvissuti in un mondo sotto effetto serra fuori controllo. L’effetto serra deve essere libero, come il Mercato.
[59]la “M” maiuscola non è un errore tipografico.
[60]United Nations Framework Convention on Climate Change, in Italia convertita in legge dello Stato nel 1994, con L.65/94.
[61]In italiano: “I Limiti dello Sviluppo” ed. EST Mondadori, 1972, di Meadows et al. In inglese: “The limits of Growth” Productivity Press. Il testo non-divulgativo, con tutte le equazioni differenziali e il programma, con i grafici dei comportamenti dei parametri, con la descrizione delle subroutines e con tutta l’analisi differenziale e numerica necessaria è stato anch’esso pubblicato nel 1972 (è ancora disponibile) con il titolo “Dynamics of Growth in a Finite World”, stessi autori, Productivity Press.
[62]Tale tempo di risposta o delay tecnologico, calcolato per diffondere in tutto il mondo le innovazioni tecnologiche con applicazione capillare è addirittura superiore ai 25 anni oggi nel 1999, l’ipotesi era pertanto veramente super-ottimistica.
[63]World3 è il nome dato al maxiprogramma dal Prof. Dennis Meadows. Meadows era allora leader del pool di scienziati del MIT e oggi decano nell’University of New Haven, a capo del programma GAIM (Global Analysis Interpretation and Modelling) dell’IGBP (International Geosphere Biosphere Program). L’IGBP è uno dei pilastri dei lavori dell’IPCC, ed è direttamente istituito e controllato dall’ICSU.
[64]quasi tutti scienziati occidentali e delle migliori università americane, e non già pericolosi politici rivoluzionari.
[65] “Modelli di Sventura”
[66]ancora oggi molti di coloro che hanno sentito parlare del rapporto del MIT credono che le crisi in esso previste venivano causate dallo scarseggiare delle risorse, cosa a cui i modelli invece non arrivavano, in quanto tutte le crisi avvenivano ben prima di quando il sistema si sarebbe accorto della diminuzione, e cioè le crisi avvenivano quando il livello di risorse disponibile era ancora alto. Il motivo delle crisi era invariabilmente la crescita esponenziale del prodotto industriale e della popolazione, in varie varianti ed interazioni con il prodotto agricolo e l’inquinamento.
[67]si tratta della progressiva diminuzione dello strato di humus ricco di sali minerali dovuto allo sfruttamento agricolo che sottrae i sali più rapidamente di quanto possano venire ripristinati.
[68]guidata dalla Signora Gro Bruntland, ex primo ministro norvegese, e recentemente candidata a Segretario Generale UN, nel 1997, quando venne poi nominato il Signor Kofi Annan.
[69]In italiano è uscito con il titolo “Il Futuro di Noi Tutti”, ed. Bompiani
[70]con l’ufficialità delle Nazioni Unite e redatto anche dai delegati governativi dei maggiori paesi, membri della commissione
[71]United States Global Change Research Program, istituito nientemeno che dalla presidenza Reagan con un budget iniziale di 2.5 miliardi di dollari all’anno.
[72]su 8500 ricercatori di tutto il mondo che in totale contribuirono al rapporto.
[73]In Italia è stato pubblicato dal Saggiatore (Mondadori) con il titolo “Oltre i Limiti dello Sviluppo”.
[74]Sia il FAR, First Assessment Report del 1990, che il Supplementary Report del 1992, possono essere ordinati da Cambridge University Press. Versioni in sommario si possono scaricare gratuitamente dal sito IPCC, in mirror sul sito del WMO (www.wmo.org) o sul sito proprietario (www.ipcc.ch). Altri siti e documenti, grafici e dati si possono ottenere cercando con motori di ricerca le parole chiave UNFCCC, UKMO, IPCC, UNEP, CLIMATE CHANGE.
[75]Alliance of Small Island States, una alleanza tra piccoli stati isola, come le Marshall Islands, le Maldive, le Comore, le Solomon, le Tonga, unite dalla caratteristica di essere paesi con elevazione sul livello del mare di poche decine di centimetri, e di essere perciò le prime vittime designate dell’innalzamento del livello del mare da effetto serra.
[76] Consiglio vivamente al lettore di procurarsi il testo della legge, fedele traduzione dell’originale inglese, e di leggerlo attentamente. Ho personalmente verificato che la maggior parte dei deputati e senatori che l’hanno ratificata...non la hanno neanche letta (“era roba delle Nazioni Unite”...)
[77]International Negotiating Committee
[78]per motivi connessi al tipo di legame chimico C-C, bruciare carbone per produrre una unità di energia produce il 33% circa in più di anidride carbonica che se la stessa energia venisse prodotta bruciando una miscela di idrocarburi liquidi (ad es. nafta o benzina, kerosene, etc.). Ciò è dovuto al fatto che un legame C-C possiede meno energia di uno C-H.
[79]Ad Hoc Group on the Berlin Mandate.
[80]alla quale ho assistito personalmente, accreditato come scienziato osservatore.
[81] che per di più sono percentuali di riduzione calcolate e valide nel 1990: oggi, essendo le emissioni più alte che allora, mentre la capacità di assorbimento dei sinks è rimasta sostanzialmente la stessa, dette percentuali di riduzione necessarie sono ovviamente più alte. Più tardi si riduce, più bisogna ridurre.
[82]...ma come si interessano ai posti di lavoro, a volte, gli industriali!
[83]E’ proprio paradossale che gli HFC, che sono stati messi in produzione a seguito del Protocollo di Montreal - per salvare l’ozono stratosferico - che bandiva la produzione di CFC, si sono però rivelati come potentissimi gas di serra (più dei CFC). Meccanismi del Mercato...
[84]Global Commons Institute
[85]redistribuzione... dove avrò mai già sentito questo concetto?
[86]Convention to Combat Desertification
[87]emergy: da embodied energy. L’emergy, introdotta da Odum, nel caso dei vegetali è la quantità di energia solare immagazzinata in legami organici C-H, e quindi proporzionale alle calorie (tutto per unità di massa) immagazzinate per processo clorofilliano. Nel caso in cui il vegetale è un alimento, l’emergia per unità di massa è quindi proporzionale al potere nutritivo per unità di massa.