MES LECTURES - Passages choisis 

Bjørn Lomborg

2005-03-21

Éd. Le Cherche Midi © 2004

L'Écologiste sceptique [1]

SOMMAIRE [2]

La litanie

  1. Démographie et bien-être

  2. Espérance de vie et santé

  3. Besoins alimentaires et faim dans le monde

  4. Prospérité

  5. Forêts

  6. Ressources énergétiques

  7. Épuisement des ressources non énergétiques

  8. Accès à l'eau douce

  9. Pollution de l'air et de l'eau

10. Gestion des déchets

11. La crainte des produits chimiques

12. Biodiversité

13. Réchauffement de la planète

Le message de ce livre

Les visions apocalyptiques sont profondément ancrées dans notre façon de voir les choses.

Bjørn Lomborg, Avant propos, p. 12.

* * *

La litanie

p. 20

Le sous-titre de mon livre reprend le titre du fameux livre sur l'environnement, L'État de la planète (The State of the World). Réédité tous les ans depuis 1984 par le directeur du Worldwatch Institute, Lester Brown[3], il s'est vendu à plus d'un million d'exemplaires. Cette publication périodique tente de répertorier avec professionnalisme et justesse les principales menaces qui pèsent sur le monde. Malheureusement, comme nous allons le voir, il est la plupart du temps difficile de mener à bien l'ensemble de ces objectifs. Par bien des aspects, cependant, L'État de la planète est l'un des ouvrages les mieux documentés et les plus ambitieux sur la politique environnementale, ce qui en fait un intervenant essentiel dans le débat sur le sujet [4].

À un niveau supérieur, ce document altère notre point de vue sur le milieu dans lequel nous vivons, en nous récitant une litanie sur un environnement qui ne cesserait de se dégrader. Notre opinion est soumise quotidiennement à des images et à des messages émanant de la télévision, des journaux, des discours politiques, des conversations au bureau, en famille ou entre amis. C'est pourquoi, en 2000, le magazine Time commençait un article en ces termes : « Chacun sait que la planète se porte mal[5]. »

Cette litanie, on la raconte même aux enfants, comme dans Young Oxford Books de Oxford University Press, qui affirme : « L'équilibre de la nature est fragile, mais essentiel à la vie. Les humains ont modifié cet équilibre, arrachant à la terre son manteau vert, asphyxiant l'air et empoisonnant les mers[6]. »

De la même façon, un autre article du Time nous apprend que « pendant plus de quarante ans, la Terre a envoyé des signaux de détresse », mais que, « malgré notre célébration du Jour de la Terre... le déclin des écosystèmes de la planète n'a pas été freiné[7]. » Le « Global Environment Supplément » du New Scientist d'avril 2001 parle de la « catastrophe » qui menace et du fait que nous risquons d'expédier « l'humanité à la poubelle de l'histoire de l'évolution ». Notre rôle est résumé dans le titre « Autodestruction » :

« Nous autres humains sommes aussi petits que l'astéroïde qui provoqua l'extinction des dinosaures... Nous causons de plus en plus de dégâts. Dans les vingt prochaines années, la population augmentera d'un milliard et demi d'individus. Tous ces gens auront besoin de nourriture, d'eau et d'électricité, mais déjà les sols s'épuisent, les poissons sont décimés, les puits s'assèchent et la combustion des énergies fossiles met en danger des millions de vies humaines. Nous courons au cataclysme[8]. »

Cette conception de l'environnement est omniprésente. Cette litanie nous est familière [9]: sur notre Terre, l'environnement est dans un triste état [10]. Les ressources s'épuisent. La population croît, faisant fondre les réserves de nourriture. L'air et l'eau sont de plus en plus pollués. Nombre d'espèces sont en voie d'extinction : nous en exterminons plus de 40 000 chaque année. Les forêts disparaissent, les réserves de poissons se tarissent, les récifs de corail périssent... la liste de nos méfaits est interminable.

Nous souillons notre planète, rétrécissons la superficie de terre arable, bitumons la nature, détruisons la vie sauvage, décimons la biosphère, et nous finirons par nous tuer nous-mêmes. L'écosystème mondial s'effondre. Nous approchons rapidement de la limite absolue de la viabilité, et la croissance arrive à son terme[11].

Cette litanie, nous l'avons entendue si souvent que le fait de la réentendre une fois encore est presque rassurant. Le problème est qu'il semblerait que la réalité lui donne tort.

Les choses vont mieux, ce qui ne veut pas forcément dire qu'elles vont bien.

Tout au long de ce livre, je tenterai de décrire les domaines majeurs qui circonscrivent les potentiels, les gageures et les problèmes de l'humanité, tant par le passé que dans le présent et l'avenir. Ces domaines sont choisis soit du fait de leur importance absolument évidente (par exemple le chiffre de la population sur terre), soit parce que les modèles indiquent qu'ils auront une importance décisive sur le développement de l'humanité (pollution atmosphérique, réchauffement climatique), soit encore parce qu'ils sont fréquemment mentionnés lorsqu'il est question de l'état de la planète (peurs de produits chimiques tels que les pesticides) [12].

Au cours de cette description, je vais devoir remettre en question les idées reçues sur l'effondrement des écosystèmes, car elles sont tout simplement en décalage avec la réalité objective.

Non, nous ne manquerons ni d'énergie ni de ressources naturelles [13]. Il y aura de plus en plus de nourriture par habitant. De moins en moins de gens meurent de faim. Selon Samuel Preston, dans Mortality Patterns in National Population, en 1900, l'espérance de vie était de 30 ans ; elle est aujourd'hui de 67 ans. D'après l'ONU, la misère a reculé davantage au cours des 50 dernières années que dans les 500 années précédentes, et ce dans presque tous les pays.

Bien que son impact soit exagéré et les conjectures pour l'avenir pessimistes au-delà du raisonnable, le réchauffement climatique est bien réel. Mais le remède consistant en une réduction prématurée et radicale de la consommation d'énergie fossile est bien pire que le mal lui-même et, de plus, ses conséquences ne poseront pas au monde de problème insoluble pour l'avenir. Nous n'allons pas non plus voir disparaître 25 à 30 % de toutes les espèces au cours de notre vie : de fait, ce chiffre serait plus proche de 0,7 %. Les pluies acides n'exterminent pas les forêts, et l'air et l'eau qui nous entourent sont de moins en moins pollués.

En fait, selon presque tous les critères mesurables, le sort de l'humanité s'est effectivement amélioré.

Mais attention ! le fait que l'immense majorité des indicateurs montrent que le sort de l'humanité s'est grandement amélioré n'implique pas que tout soit encore entièrement satisfaisant. La première affirmation concerne le monde tel qu'il « semble être, alors que la seconde concerne le monde tel qu'il devrait être [14] ».

Lors de mes tournées de conférences, j'ai découvert à quel point il est vital de souligner cette distinction. Beaucoup croient pouvoir prouver que j'ai tort, par exemple en évoquant la faim dans le monde : « Comment pouvez-vous dire que les choses continuent à s'améliorer alors que 18 % des habitants des pays en voie de développement sont encore sous-alimentés ? »

Et pourtant, il y a dans le monde de moins en moins de gens qui souffrent de la faim. En 1970, 35 % de l'ensemble de la population des pays en voie de développement étaient sous-alimentés. En 1996, le chiffre était de 18 %, et l'ONU prévoit que ce chiffre chutera à 12 % en 2010 [15], soit 237 millions d'affamés en moins. Jusqu'à aujourd'hui, environ 2 milliards de personnes de plus ont de quoi s'alimenter.

Malgré ce progrès remarquable, 680 millions de gens auront encore faim en 2010, ce qui est évidemment encore trop.

La distinction est essentielle ; on peut se fixer un but, que moins de gens souffrent de la faim. C'est un objectif politique. C'est très lent, mais quand les choses s'arrangent, on sait que l'on est sur la bonne voie. Sans doute peut-on faire plus pour améliorer les problèmes de nutrition, mais la façon de l'aborder est bonne. Il est avéré que l'on sauve des vies et que l'on peut espérer une diminution du nombre des gens qui souffrent de la faim.

Exagération et bonne gestion.

La répétition constante de la litanie et des exagérations sur l'environnement est lourde de conséquences. Elle engendre en nous la peur et nous fait dépenser nos ressources et notre énergie à résoudre des problèmes imaginaires en ignorant les questions réelles et urgentes (pas nécessairement environnementales). C'est pourquoi nous devons avoir connaissance des faits et disposer des meilleures informations possibles afin de pouvoir prendre les mesures les plus adaptées. Comme l'écrit Gro Harlem Brundtland, un des auteurs du rapport sur l'environnement, Notre avenir commun[16], dans un grand magazine scientifique : « La politique qui ne tient pas compte de la science et de la connaissance ne survivra pas à l'épreuve du temps. De fait, il n'y a d'autre fondement pour de saines décisions politiques que les meilleures attestations scientifiques. Cela est d'autant plus valable dans les domaines de la gestion des ressources et de la protection de l'environnement[17]. »

Déclarer que nos peurs les plus courantes ne sont pas fondées ne signifie pas pour autant qu'il faille négliger l'environnement. Loin de là. Il serait bienvenu de se pencher sur la gestion de nos ressources et de s'attaquer à des problèmes tels que la gestion de la forêt et de l'eau, la pollution atmosphérique et le réchauffement climatique. Mon objectif est de fournir les informations nécessaires pour savoir où faire porter les efforts en priorité. Je m'appliquerai à démontrer tout au long de cet ouvrage que bien souvent, les solutions proposées sont tout à fait inefficaces. Ces informations indiquent qu'il ne s'agit pas d'abandonner toute action, mais qu'il y a lieu de concentrer notre attention sur les problèmes les plus importants et les plus urgents.

Principe fondamental : les tendances.

Pour comprendre l'état réel de la planète, il faut nous concentrer sur les principes fondamentaux et regarder les réalités et non les mythes. Considérons ces deux exigences, en commençant par les principes fondamentaux.

L'évaluation de l'état de la planète doit passer par le principe de comparaison[18]. À quelqu'un qui lui disait « la vie est dure », Voltaire aurait répondu : « comparée à quoi [19] ? » J'estime qu'il est indispensable que tout soit comparé avec ce qu'il en était avant. La comparaison nous indique l'évolution : est-ce mieux ou moins bien ? Cela signifie que nous devons savoir quelle est la tendance.

1. Démographie et bien-être

p. 89

Dans ce chapitre, nous allons étudier le bien-être de l'humanité, terme à définir au préalable. Le bien-être ne se limite évidemment pas à une question d'argent, mais concerne tout le potentiel humain à développer [20].

Selon l'ONU, « l'objectif réel du développement devrait être de créer un environnement permettant aux gens de jouir de vies longues, saines et créatives. Bien que cela puisse sembler une simple évidence, on l'oublie souvent face à la préoccupation immédiate de l'accumulation de biens et de richesses[21] ».

L'ONU a élaboré l'Indice de développement humain (Human Development Index). Cet indice tente de définir le type d'environnement qui permet aux individus d'avoir de bonnes conditions de vie. Son objectif est de mesurer combien d'années les gens peuvent espérer vivre, quelle somme de connaissances ils peuvent acquérir et à quel niveau de vie ils peuvent prétendre. En termes pratiques, il mesure l'espérance de vie, le taux d'illettrisme, le niveau d'études et le revenu. De même, la Banque mondiale s'efforce d'évaluer la qualité de vie des individus sur la base des critères qui sont l'espérance de vie, la malnutrition, l'approvisionnement en eau et l'assainissement, l'illettrisme et la consommation d'énergie [22].

p. 90

Combien sommes-nous sur terre ?

Le nombre d'êtres humains sur la terre augmente chaque jour, et la barre des 6 milliards a été dépassée en 1999 [23]. Comme on peut le voir sur la figure 11, la forte croissance de la population mondiale a débuté vers 1950, et se terminera probablement vers 2050 [24]. L'accroissement de la population est dû principalement à une chute importante du taux de mortalité résultant d'un meilleur approvisionnement en aliments, en médicaments, en eau potable et en assainissement [25]. D'autre part, l'augmentation n'est pas due au fait que, dans les pays en voie de développement, les familles ont de plus en plus d'enfants.


[26]
 

 Figure 11 — La population mondiale de 1750 à 2200, projection à hypothèse moyenne de l'année 2000. (Source : PNUD 2001b ; l998b : 37, l998c.)


 

  Figure 12 — Transition démographique indiquant les taux de natalité et de mortalité en Suède (1750-2050) et au Sri Lanka (1910-2050), prévisions pour 1999-2050. À noter que le taux de mortalité décroît en premier, puis le taux de natalité. À mesure que la population vieillit, le taux de mortalité remonte légèrement. (Source : Mitchell 1975, 1995, Banque mondiale 2000c, USBC 2001a.)

Au début des années 50, les femmes, dans les pays en voie de développement, donnaient naissance à plus de six enfants en moyenne, alors que la moyenne est de trois environ aujourd'hui [27]. Comme l'un des conseillers de l'ONU le dit plutôt crûment : « Ce n'est pas que les gens se sont reproduits comme des lapins, mais bien plutôt qu'ils ont cessé de mourir comme des mouches[28]. »

En termes historiques, ce développement est connu sous le nom de « transition démographique », qui fait l'objet de la figure 12 [29]. Dans une société agricole traditionnelle, les revenus sont faibles et la mortalité élevée. Cependant, les enfants travaillant pour subvenir aux besoins de leurs parents âgés rapportent plus qu'ils ne coûtent, ce qui explique le taux de natalité élevé. Avec des conditions de vie, de santé et d'hygiène améliorées et une prospérité économique générale, le taux de mortalité chute. La transition vers une économie plus urbaine et développée fait que les enfants ont plus de chances de survivre et donc commencent à coûter plus qu'ils ne rapportent, faisant des études, travaillant moins et confiant la garde de leurs parents à des institutions spécialisées. Conséquence : le taux de natalité baisse [30]. Dans l'écart existant entre les taux de mortalité et de natalité décroissants, la population augmente. Dans le cas de la Suède, elle a été multipliée par cinq [31].

Actuellement, nous constatons une tendance similaire dans les pays en voie de développement, où le taux de mortalité a chuté considérablement et où le taux de natalité commence à baisser. Au Sri Lanka, cette tendance est évidente sur la figure 12, où on prévoit que la population sera multipliée par six avant de se stabiliser vers 2030 [32]. L'ONU estime que dans les pays en voie de développement, les femmes auront en moyenne 2,1 enfants, ce qui représente une reproduction stable [33], d'ici à 2045-2050 [34]. Actuellement, le taux de reproduction dans les pays en voie de développement est de 3,1 enfants, un taux déjà inférieur à ce qu'il était aux États-Unis et en Australie dans les années 60 ou au Danemark au début des années 20 [35].

La population mondiale va continuer de croître encore quelque temps après 2035 car les chiffres de la population ont leur propre « dynamique ». Même quand le taux de natalité aura atteint le niveau de remplacement de 2,1 enfants par femme, il y aura plus de jeunes que de vieux dans la population. À leur tour, ils mettront au monde 2,1 enfants, qui créeront eux aussi une légère prépondérance des jeunes, etc.

Cette dynamique est déjà aujourd'hui la cause première de la croissance démographique : on prévoit un accroissement de la population mondiale de 3,3 milliards dans les 50 prochaines années, mais même si la fécondité mondiale descendait instantanément jusqu'au niveau de remplacement, l'accroissement serait quand même d'environ 2,3 milliards [36].

   Figure 13 — Prospection de l'augmentation de la population mondiale en valeur absolue et en pourcentage, 1950-2050. La baisse spectaculaire entre 1959 et 1962 est due au « Grand bond en avant » de la Chine, qui a conduit à une famine catastrophique et a coûté la vie à près de 30 millions de personnes (WFS 1996 : 3 : 3,15). Prévisions de 2001. (Source : USBC 2001 a.)

Comme le montre la figure 13, au début des années 60, la croissance de la population mondiale culminait à juste un peu plus de 2 % par an. Depuis, elle a baissé à 1,26 % et il est prévu qu'elle baisse encore jusqu'à 0,46 % d'ici à 2050. Mais même ainsi, la croissance absolue de la population n'a culminé qu'en 1990, année où près de 87 millions d'individus sont venus s'ajouter à la population mondiale. Aujourd'hui, la croissance est d'environ 76 millions par an et aura chuté à environ 43 millions d'ici à 2050[37].

L'ONU calcule régulièrement combien nous sommes sur terre et combien nous serons dans l'avenir. Ces chiffres ont été revus à la baisse de 1,5 milliard pour 1994, 1996 et 1998 et à la hausse de nouveau d'un demi-milliard pour l'an 2000, en raison des variations de la baisse de fécondité dans différents pays [38]. Les dernières prévisions à long terme datant de 2000 apparaissent sur la figure 11 [39]. Celle-ci montre qu'il y aura presque 8 milliards d'individus sur terre d'ici à 2025 et environ 9,3 milliards d'ici à 2050. On estime que la population mondiale se stabilisera à un peu moins de 11 milliards en l'an 2200 [40].

p. 93

La contribution des pays industrialisés à la population mondiale va continuer à baisser. Après avoir augmenté au cours des siècles précédents, elle est descendue y de 32 % en 1950 à 20 % aujourd'hui, et poursuivra sa baisse jusqu'à atteindre 13 % en 2050 [41].

p. 94

Surpopulation

Nous entendons souvent parler de la surpopulation de la Terre. Elle est souvent illustrée par de grandes photos de foules bigarrées, denses et compactes ou de stations de métro bondées [42].

Dans La Bombe P (Fayard, 1968), son best-seller sur l'explosion démographique, le célèbre biologiste Paul Ehrlich écrit :

« Psychologiquement, l'explosion démographique est d'abord assimilée à une nuit torride et puante à Delhi. Les rues grouillent de gens. Des gens qui mangent, qui se lavent, qui dorment, qui travaillent, discutent et crient. Des gens qui passent les mains à travers les vitres des taxis pour mendier. Des gens qui défèquent. Des gens qui urinent. Des gens qui se cramponnent à l'extérieur des bus. Des gens qui mènent des animaux à travers les rues. Des gens, encore des gens, toujours des gens[43]. »

Toutefois, le problème n'est pas le nombre d'individus en tant que tel. La plupart des pays avec la plus forte densité de population se trouvent en Europe. La région du monde la plus peuplée, le Sud-Est asiatique, a la même densité de population que le Royaume-Uni. Les Pays-Bas, la Belgique et le Japon ont une densité de population bien plus élevée que celle de l'Inde et, proportionnellement à leur superficie, l'Ohio et le Danemark sont plus peuplés que l'Indonésie [44].

Aujourd'hui, Ehrlich et d'autres partagent cet avis. Néanmoins, deux autres interprétations de la surpopulation commencent à se faire entendre. L'une d'elles évoque des images de familles affamées, vivant à l'étroit dans des conditions misérables et mourant prématurément [45]. De telles images sont fidèles à la réalité, mais sont la conséquence de la pauvreté et non de la densité de population. Nous évoquerons la pauvreté par la suite.

p. 95

On dit souvent que la vie urbaine n'est pas d'une grande qualité. Un ouvrage classique sur l'environnement affirme que « dans les pays riches comme dans les pays pauvres, un grand nombre de gens ne peuvent être logés confortablement. Les gens vivent dans des conditions déplorables sans eau potable ni assainissement[46] ». Cet argument est inexact. S'il est avéré, d'après les normes occidentales, que l'on vit pauvrement dans les bidonvilles, le fait est que les habitants de ces bidonvilles vivent mieux que s'ils étaient restés en zone rurale [47].

Dans les régions où la densité de population est la plus élevée, les maladies infectieuses les plus graves, telles que la malaria et la maladie du sommeil, posent d'autant moins de problèmes que les immeubles sont rapprochés, ce qui supprime les marécages où moustiques et mouches se reproduisent. De plus, les réseaux d'adduction d'eau, les égouts et les services d'hygiène sont nettement meilleurs en zone urbaine que rurale [48]. Il est beaucoup plus facile d'accéder à l'éducation à la ville — dans la plupart des pays en voie de développement, il y a une différence de plus de 10 % en matière d'éducation entre ville et campagne — et les citadins sont généralement mieux nourris [49].

À vrai dire, ce sont les zones rurales qui contribuent le plus, et de loin, au problème de la pauvreté dans le monde [50]. Les agglomérations et les villes, elles, sont des centres de pouvoir qui produisent une plus grande croissance économique. Les zones urbaines dans les pays en voie de développement produisent 60 % du PIB avec un tiers de la population seulement. L'Institut de ressources mondiales (IRM) conclut clairement que « les villes se développent parce que dans l'ensemble, elles procurent des avantages sociaux et économiques plus importants que les zones rurales[51] ».

2. Espérance de vie et santé

p. 97

Le propos essentiel de ce chapitre est de montrer à quel point la vie et la santé se sont sensiblement améliorées au cours des deux derniers siècles : on vit plus vieux et en meilleure santé. C'est l'un des grands miracles de notre civilisation.

Espérance de vie

Jusqu'à l'an 1400 environ, l'espérance de vie était étonnamment courte — un nouveau-né n'avait que 20 à 30 ans d'espérance de vie en moyenne [52]. À cette époque, la mortalité infantile était incroyablement élevée : seul, un enfant sur deux survivait au-delà de sa cinquième année [53].

Concernant les débuts de l'histoire de humanité, nous avons peu ou pas de statistiques précises sur lesquelles nous appuyer, aussi les chiffres sont-ils basés sur l'observation des squelettes et les extrapolations mathématiques de la croissance de la population. Certaines des études les plus fiables des squelettes de l'âge de pierre en Afrique du Nord indiquent une espérance de vie de 21 ans au plus. Nous savons, d'après les recherches effectuées dans les tombes sur les momies et les squelettes, qu'un citoyen de la Rome antique vivait en moyenne 22 ans [54].

La figure 15 nous montre l'évolution de l'espérance de vie en Angleterre pendant la plus grande partie du second millénaire. On voit bien que la durée moyenne de vie était de 30 et quelques années, entre 1200 et 1800, avec une exception : la Peste noire, au XIVe siècle, qui fait baisser l'espérance de vie des nouveau-nés à 18 ans [55]. De plus, il faut savoir que les statistiques de 1200 à 1450 sont établies d'après le recensement des propriétaires mâles, ce qui probablement fait surestimer la longévité de la population moyenne [56].

Figure 15 — Espérance de vie à la naissance pour les propriétaires terriens mâles en Angleterre, entre 1200 et 1450, et pour les deux sexes, en Angleterre et au pays de Galles ou au Royaume-Uni, entre 1531 et 1998 [57]. (Source : Russell 1978 : 47, Wrigiey et Schofield 1981 : 230, Keyfitz et Flieger 1968 ; Flora et al. 1987 : 108, Banque mondiale 1999a, 2000c. L'espérance de vie aux États-Unis entre 1849 et 1998 est très similaire, USBC I975 : 56, Banque mondiale 1999a, 2000c.)

À partir de 1541, nous avons de bien meilleures informations au niveau national pour les deux sexes, fournies par de larges extraits des registres des paroisses. La durée de vie moyenne passe à 35 ans environ, fléchissant légèrement jusqu'en 1700 pour remonter doucement jusqu'à 1850, fluctuations passagères dues aux disettes épisodiques, aux épidémies et à l'inefficacité des réseaux de distribution des produits alimentaires [58]. Après 1850, l'espérance de vie est montée en flèche. Durant les 150 années qui suivirent, l'augmentation fut prodigieuse. Elle passa pratiquement du simple au double.

L'évolution fut la même dans la plupart des pays industrialisés. En France, l'espérance de vie était en 1800 d'environ 30 ans [59]. Au Danemark, elle tournait autour de 44 ans en 1845 [60]. Tous les pays sont arrivés à une espérance de vie de plus de 70 ans, avec une moyenne de 77 ans pour les pays industrialisés [61]. En revanche, l'espérance de vie dans le reste du monde était encore très basse au début du XXe siècle. On estime généralement qu'en 1900 elle était toujours de 30 ans environ pour la moyenne mondiale [62]. En 1950, les gens vivaient en moyenne 46,5 ans et, en 1998, jusqu'à 67 ans [63]. Ainsi l'espérance de vie a plus que doublé en un siècle.

p. 99

Espérance de vie dans le monde en voie de développement

    Figure 17 — Pourcentage d'individus avec leur espérance de vie maximum en 2000.
(Source: PNUD 200le [64].)

Il reste encore beaucoup à faire pour améliorer la situation en Afrique en matière de prévention du sida, mais aussi, comme nous le verrons plus loin, en matière de nutrition et de production économique. Mais l'essentiel est de souligner que plus de 85 % de la population mondiale peut espérer vivre au moins jusqu'à 60 ans, en moyenne plus de deux fois plus longtemps que ce à quoi les gens pouvaient aspirer il y a à peine un siècle. Un progrès inimaginable.

p. 101

Mortalité infantile

L'amélioration de l'espérance de vie est essentiellement due à une chute impressionnante de la mortalité infantile. La raison principale pour laquelle nous vivons beaucoup plus longtemps qu'il y a cent ans n'est pas que nous mourons plus âgés, mais que beaucoup moins de gens meurent prématurément. De 1900 à nos jours, l'espérance de vie des nouveau-nés de sexe féminin, aux États-Unis, a augmenté de presque 32 ans (passant de 48 à presque 80 ans) tandis que celle d'une personne de 60 ans a connu une hausse plus modeste de 7,8 ans [65].

   Figure 18 — Mortalité infantile pour 1 000 naissances viables en Suède, de 1750 à 1998, avec une tendance lissée sur neuf ans. (Source : Mitchell 1975 : 127-32, Banque mondiale 1999a, 2000c.)

p. 103

La maladie

Nous vivons plus longtemps, mais sommes-nous plus souvent malades ? Absolument pas. Généralement, nous avons acquis une meilleure santé au fil des siècles.

Nous avons souvent une impression tout à fait fausse de ce qu'était la vie autrefois. Elle est véhiculée par des films mettant en scène des personnages qui, bien que vêtus salement, vivent en parfaite harmonie avec la nature.

Malheureusement, la réalité était tout autre au XVIIIe siècle, comme l'explique ici Lawrence Stone, historien réputé de l'université de Princeton :

« L'ignorance quasi totale d'hygiène personnelle et collective faisait que l'eau et la nourriture étaient sources constantes de contamination...

Ces conditions sanitaires primitives déclenchaient continuellement des infections bactériennes gastriques, dont la plus redoutable était la dysenterie, qui emportait de nombreuses vies sans distinction de sexe ni d'âge, en l'espace de quelques heures ou de quelques jours. Provoqués par un régime alimentaire déséquilibré chez les riches et par la consommation de nourriture avariée ou insuffisante chez les pauvres, les problèmes gastriques de tous ordres étaient chroniques. La fréquence de vers intestinaux... était une maladie lente et répugnante qui minait la population et la maintenait en mauvaise santé... Dans les régions marécageuses dépourvues d'assainissement, la malaria sévissait de manière récurrente et affaiblissait la population... [et] peut-être encore plus terrible, il y avait la force lente, inexorable et destructrice de la tuberculose... Pour les femmes, l'accouchement était une épreuve très dangereuse... [et enfin] il y avait la menace constante de mort accidentelle par négligence, imprudence ou due aux animaux comme les chevaux — qui semblent avoir été au moins aussi dangereux que les automobiles — ou d'éléments comme l'eau, etc.

On oublie que peu d'adultes étaient à la fois en bonne santé et séduisants, sans parler de l'odeur ni de la saleté qui étaient tout à fait courantes... Hommes et femmes ont souvent dû avoir des haleines fétides à cause de dents gâtées, de maux d'estomac constants dont on trouve mention dans de nombreuses archives, tandis qu'ulcères purulents, eczéma, croûtes, plaies suppurantes et autres maladies de peau étaient monnaie courante et duraient souvent des années[66]. »

Dans la lutte toujours actuelle entre la santé et la mort, nous pouvons identifier certains événements essentiels qui réduisent les taux de mortalité. D'abord, les niveaux de vie plus élevés de la fin du XVIIIe siècle ont permis de mieux se nourrir, mieux se vêtir et se loger, et donc d'avoir une plus grande résistance à la maladie. En outre, les nouvelles conditions de vie, par exemple la plus grande proximité dans laquelle les gens vivent, ont entraîné une évolution des agents pathogènes, qui ont souvent perdu de leur virulence [67].

De plus, l'amélioration de l'hygiène publique, des réseaux d'adduction d'eau et d'assainissement, de l'éducation en matière d'hygiène et les mesures de quarantaine de la fin du XIXe siècle ont favorisé la diminution des maladies infectieuses [68]. Enfin, au XXe siècle, l'amélioration des traitements médicaux s'est accompagnée d'un large éventail de technologies nouvelles pour lutter contre la maladie [69]. Pendant les deux derniers siècles, nous avons donc connu un déclin notable des taux de mortalité et une amélioration de l'espérance de vie.

  Figure 20 — Fréquence des maladies infectieuses et non infectieuses aux États-Unis entre 1900 et 1998, taux de mortalité brut pour 100 000. Les maladies infectieuses comprennent la pneumonie et la grippe, la tuberculose, le sida et autres infections. Le pic prononcé de 1918 correspond à l'épidémie de grippe espagnole qui a fait 20 millions de victimes dans le monde entier, dont 500 000 personnes aux États-Unis. (Source : Armstrong et al. 1999, Martin et al. 1999 : 27-8, CDC 1999a : 622.)

p. 108

Un autre indicateur de la santé d'une population est la taille de ses citoyens. La taille est étroitement liée à la santé et à une alimentation adéquate de l'état d'embryon jusqu'à celui d'adulte, et des citoyens de plus grande taille peuvent être le signe de meilleures normes de santé. Les individus de grande taille ont un taux de mortalité relativement moins élevé (mais ce seulement jusqu'à la taille d'environ 1,92 m !) [70]. Et en regardant la figure 22, on voit que nous sommes devenus de plus en plus grands en l'espace des deux derniers siècles [71].

   Figure 22 — Taille moyenne des hommes adultes de 1775 à 1975. (Source : Fogel 1989 : 50, Bumette et Mokyr 1995 : 144.)

p. 109

Conclusion

On peut dire que, d'une façon générale, la santé des êtres humains s'est considérablement améliorée durant les deux derniers siècles. On vit deux fois plus longtemps qu'il y a un siècle et cette évolution s'est produite dans les pays industrialisés comme dans les pays en voie de développement. Dans les deux cas, la mortalité infantile a chuté de plus de 50 %.

Cela ne doit pas nous faire oublier les drames actuels : l'épidémie de sida en Afrique et les améliorations fondamentales qui sont encore possibles pour le tiers-monde. Mais, dans l'ensemble, la vie et la santé sur cette planète se sont considérablement améliorées.

3. Besoins alimentaires et faim dans le monde

p. 110

Bien que nous soyons deux fois plus nombreux qu'en 1961 [72], chacun d'entre nous peut manger davantage, dans les pays industrialisés comme dans les pays en voie de développement. Moins de gens meurent de faim et, de nos jours, la nourriture est moins chère.

Malthus et la faim éternelle

Pourtant, il paraîtrait logique que la population mondiale augmentant, il y ait moins à manger pour chacun d'entre nous. Cette théorie simple fut formulée en 1798 par le Révérend Thomas Malthus, économiste et démographe anglais. Un argument devenu particulièrement populaire dans les années 1970 grâce au bestseller Halte à la croissance.

La théorie de Malthus était que la population augmente d'un certain pourcentage chaque année, de manière exponentielle. La population actuelle de la Terre aura doublé dans environ 40 ans. Donc, dans 80 ans, nous serons quatre fois plus et dans 120 ans, huit fois plus, etc. La production alimentaire progresse plus lentement : sa progression est linéaire. Elle peut avoir doublé dans 40 ans, mais dans 80 ans, elle n'aura fait que tripler son niveau actuel et, dans 120 ans, elle aura seulement quadruplé. La population augmentera toujours plus alors que l'accroissement de la production alimentaire restera constant. Par conséquent, à long terme, cette production perdra la course contre la population. Et beaucoup de gens mourront de faim.

   Figure 23 — Parallèle de la consommation quotidienne de calories par habitant dans les pays industrialisés, en voie de développement et l'ensemble du monde. 1961- 1998 (Source : FAO 2001 a.). Pour les prévisions [de 1998] jusqu'en 2030. (Source : FAO 2000d : 23, 2001 a.)

La théorie de Malthus paraît si simple et si séduisante que de grands scientifiques sont tombés dans le panneau. Mais elle ne semble pas être étayée par les faits. La population s'accroît rarement de manière exponentielle, comme on l'a vu dans l'introduction (figure 11, p. 90). De même, l'augmentation de la production alimentaire est rarement linéaire. En réalité, la production agricole mondiale a plus que doublé depuis 1961 et, dans les pays en voie de développement, elle a plus que triplé. Cela signifie que la quantité de nourriture mise à la disposition de chaque individu a augmenté de façon stable. Selon l'ONU, nous en produisons 23 % de plus par habitant qu'en 1961, et l'accroissement des récoltes agricoles dans les pays en voie de développement atteint 52 % [73].

 Figure 24 — Pourcentage des populations qui meurent de faim dans les pays en voie de développement par région, pour 1970, 1980, 1991, 1997 et estimations pour 2010. À noter les intervalles légèrement irréguliers. (Source : WFS 1996 : I : Table 3, FAO 200c : 27.)

Parallèlement, la consommation de viande par personne a augmenté de 122 %, passant de 17,2 kg en 1950 à 38,4 kg en 2000 [74]. Malgré cette hausse spectaculaire de la demande, le prix des produits alimentaires a baissé de plus de deux tiers entre 1957 et le début 2001 [75].

4. Prospérité

p. 125

Malthus Pauvreté et distribution

Nous croyons souvent que la vie dans le monde en voie de développement se détériore et que la proportion de pauvres augmente, mais, en réalité, c'est le contraire qui se passe. En fait, l'ONU écrivait dans son rapport de 1997 sur la pauvreté et l'inégalité : « Peu de gens se rendent compte des grandes avancées déjà réalisées. Au cours des 50 dernières années, la pauvreté a régressé davantage que sur les 500 années précédentes. Et, d'une manière ou d'une autre, elle a reculé dans la plupart des pays. » Ainsi que la Banque mondiale l'écrivait également, en 1998 : « De gros progrès ont été réalisés pour faire régresser la pauvreté dans les pays en voie de développement. Dans les quatre décennies qui viennent de s'écouler, les indicateurs sociaux ont progressé dans toutes les régions. Dans les vingt dernières années, la pauvreté a reculé de façon spectaculaire en Asie du Sud-Est : de six personnes sur dix vivant avec moins d'un dollar par jour au milieu des années 70, on est passé à deux sur dix dans les années 90. Il y a également eu une forte réduction de la pauvreté au cours des dernières années dans presque toute l'Asie du Sud et certaines parties du Moyen-Orient, de l'Afrique du Nord et de l'Amérique latine. »

   Figure 32 — PIB par habitant pour le monde développé et en voie de développement en PPP$ 1985, 1950-1995. Notez les valeurs différentes sur les axes. (Source : Summers et Heston 1991 , 1995, Banque mondiale l997a.)

p. 127

La Banque mondiale et l'ONU soulignaient pourtant : « Malgré ce progrès, il reste toutefois encore beaucoup à faire. » En 1987, 1,18 milliard de personnes vivaient avec moins d'un dollar de 1985 par jour (soit 565 dollars actuels par an), qui est le seuil de pauvreté défini par la Banque mondiale. Au début des années 90, ce chiffre est passé à 1,3 milliard pour redescendre vers la fin de la décennie ; en 1998, le nombre de pauvres était de 1,2 milliard. En tenant compte de la croissance démographique, le pourcentage de pauvres dans le tiers-monde est passé de 28,3 % en 1987 à 24 % en 1998 [76]. Ces données sont présentées dans la figure 33, avec des estimations historiques à partir de 1950. On voit que, même si le nombre total de pauvres est resté à peu près identique (1,2 milliard) , leur proportion a été au moins divisée par deux depuis les 50 % de 1950 [77]. Ainsi, au cours des 50 dernières années, ce sont 3,4 milliards de personnes qui ont quitté le statut de pauvres [78].

  Figure 33 — Pourcentages de la pauvreté relative dans le monde, 1950-1998, avec diverses définitions de la pauvreté et de l'insertion [79]. (Sources : Banque mondiale l999b : 5, 2001 a : 23, Barry et al. 1983 : 341, 1991 : 73, 77, Grigg 1985 : 69.)

p. 136

Davantage de biens de consommation

On peut également évaluer le développement de la richesse en étudiant des marqueurs plus spécifiques, par exemple le nombre de personnes qui possèdent tel ou tel bien de consommation. Les résultats de ce type de compilation pour les États-Unis peuvent être observés sur la figure 37, qui montre l'augmentation massive de nombreux biens importants, et l'amélioration très nette des conditions de vie au cours du dernier siècle, même si nous ne prêtons même plus attention à la plupart de ces commodités.

Figure 37Pourcentage des foyers équipés de divers biens de consommation aux États-Unis tout au long du XXe siècle.
Nombre de foyers : USBC 1875 : 41, l999a : 60, 2000a.
Machine à laver, aspirateur, lumière électrique, réfrigérateur : Lebergott 1993 : 113, EIA l999a.
Toilettes avec chasse d'eau : Lebergott 1993 : 102.
Radio, téléviseur : USBC 1975 : 796, l999a : 885.
Téléphone : USBC 1975 : 783, l999a: 885.
Voiture : FHWA 1996-99, Lebergott 1976 : 289-90, USBC 1999 : 878.
Câble, magnétoscope : USBC 1999 : 885, 581.
Ordinateur : EIA 1999 : 14, Kominski et Newburger 1999 : 15, NTIA 1999 : 10, 2000 : 30.

Durant la décennie 1980, la plupart des gens ont acheté un four à micro-ondes et un magnétoscope, et durant les trente dernières années près de 70 % des familles ont fait installer le câble. Dans les années 50, les Américains se sont équipés en téléviseurs à une vitesse incroyable, passant de 0,4 % en 1948 à 87 % en 1960 et, de 1970 à 1990, ces téléviseurs ont presque tous été remplacés par des postes couleur (USBC 1999a :581). Depuis l'apparition du premier PC en 1976, un nombre toujours croissant de familles américaines a acquis un ordinateur, et leur proportion a triplé entre 1990 et 2000 pour atteindre 51 %.

D'une présence modeste dans 5 % des foyers au début du siècle, le téléphone est devenu omniprésent, permettant une communication instantanée entre amis et membres de la famille. Le nombre de téléphones portables a connu une augmentation encore plus rapide, se multipliant par 13 de 1990 à 1998, un quart des Américains en étant pourvus en 1999 (USBC 1999a :584). Le téléphone portable permet une communication permanente.

Le nombre d'Américains voyageant dans le monde sur des lignes aériennes américaines a été multiplié par six, passant de 1,5 % de la population par an en 1960 à près de 10 % en 1999, tendance qui est valable dans le monde entier, où le pourcentage de touristes a été multiplié par six depuis 1960 et semble vouloir augmenter encore de 35 % d'ici à 2010. Au niveau mondial, le trafic aérien a été multiplié par 40 depuis 1950, avec des passagers qui parcourent une moyenne de 442 km par habitant de la planète en 1998 WI 2000b : 87 ; IRM 1998a : 244, USBC 200la.

p. 140

Une meilleure éducation

Quand on considère le nombre d'années passées par personne dans le système scolaire, les pays industrialisés comme en voie de développement ont connu une forte augmentation. Dans le monde en voie de développement, elles ont pratiquement doublé en 30 ans, passant de 2,2 en 1960 à 4,2 en 1990. En comparaison, les habitants du monde occidental ont passé en moyenne 7 ans à l'école en 1960 et 9,5 ans en 1990. La figure 42 montre que les habitants des pays en voie de développement fréquentent maintenant beaucoup plus longtemps les établissements scolaires primaires, secondaires et universitaires. En moyenne, ils passent près de deux fois plus de temps à l'école primaire, plus de deux fois plus dans le secondaire et près de cinq fois plus dans le supérieur. Ce progrès dénote bien que le monde en voie de développement a partiellement rattrapé son retard par rapport au monde industrialisé. En 1960, les gens des pays en voie de développement ne passaient que trois fois moins de temps à l'école que ceux des pays industrialisés, contre deux fois moins en 1990.

  Figure 42 — Taux moyen d'instruction par habitant dans les pays en voie de développement ; éducations primaire, secondaire et supérieure de 1960 à 1990. 1960 = 1. (Source : Barro et Lee 1996.)

p. 141

Plus de loisirs

En raison du manque de données pour ce qui concerne les loisirs, nous ne prendrons en considération que les tendances pour le monde occidental. La conclusion est très nette. Quoi qu'on puisse en penser, nous avons de plus en plus de temps libre.

Le nombre d'heures de travail sur une année a considérablement diminué dans le monde occidental depuis la fin du XIXe siècle, comme on peut le voir sur la figure 43. Dans la plupart des pays, on travaille aujourd'hui deux fois moins qu'il y a 122 ans. Toutefois, le Japon semble avoir résisté à la réduction générale du temps de travail entre 1930 et 1960 ; comparé aux autres pays industrialisés, ce pays a plusieurs dizaines d'années de retard, et les Japonais travaillent environ 400 heures de plus par an que les citoyens des autres pays de l'OCDE.

  Figure 43 — Heures de travail par an et par personne active dans des pays industrialisés, de 1870 à 1992. (Source: Maddison l995a : 248.)

Le fait que nous travaillions deux fois moins n'est pas dû seulement au raccourcissement de la semaine de travail, mais aussi à l'allongement des vacances. Ces deux considérations n'entrent pas seules en ligne de compte, car, si la durée de vie est plus longue, les années d'activité n'ont, elles, pas augmenté. Les meilleures données à long terme nous viennent, entre autres, de Grande-Bretagne. Elles indiquent qu'en 1870, le Britannique moyen travaillait de l'âge de dix ans jusqu'à sa mort, soit environ 47 ans en tout. (Ausubel et Grübler 1995 : 117.) Étant donné qu'en moyenne les gens décédaient avant l'âge de soixante ans, la question des retraites ne se posait pas. À mesure que la durée de vie augmentait, les carrières des gens s'allongeaient et à la fin des années 30, le Britannique moyen travaillait pendant 52 ans. Depuis, les avancées dans la durée des études et une retraite plus précoce ont réduit la longueur de la carrière, qui est retombée à 47 années environ.

Une stabilité du nombre d'années plus une réduction du nombre d'heures entraînent une diminution du travail à l'échelle d'une vie. De plus, on vit nettement plus vieux qu'avant. Le Britannique moyen ne vivait que 41 ans en 1870 mais 75 ans en 1987 (voir figure 15), ce qui donne une augmentation du temps libre. En résumé, la diminution du temps de travail et l'allongement de la durée de la vie se traduisent par davantage de temps libre.

La figure 44 montre le développement dans les catégories de temps utile global (en gros les 14 heures quotidiennes durant lesquelles on ne dort pas, on ne mange pas, on ne se lave pas) au cours des 125 années écoulées. En 1856, nous passions 124 000 heures de notre vie à travailler, contre 69 000 heures seulement aujourd'hui. Quant au temps que nous passons sans travailler, il était de 118 000 heures autrefois contre 287 000 heures aujourd'hui [80]. La figure 44 montre qu'en 1856, les hommes passaient 50 % de leur vie à travailler, contre 20 % aujourd'hui. En même temps, la proportion d'heures chômées a augmenté, passant d'environ 30 % à près de 60 %.

   Figure 44 — Proportion de temps utile (les 14 heures par jour non consacrées au sommeil, à l'alimentation ou à l'hygiène). Diverses activités, hommes britanniques, 1856-1981. (Source : Ausubel et Grübler 1995.)

p. 144

Plus de sûreté et de sécurité

Dans toutes les sociétés, il n'est de pire crime que celui qu'un être humain commet sur un de ses semblables. Pour cette raison, nous disposons d'assez bonnes statistiques sur les meurtres. La conclusion, quelque surprenante qu'elle soit, est que dans les pays occidentaux, le taux de meurtres est en constante diminution depuis très longtemps, malgré son augmentation récente au XXe siècle, relativement limitée dans la plupart des pays, mais assez notable aux États-Unis.

Beaucoup s'imaginent que les sociétés préhistoriques étaient paisibles et non violentes. Même si nous n'avons que peu d'informations, de traces précises, si l'on se réfère aux connaissances que l'on a en anthropologie, on sait que, dans la plupart des sociétés tribales ou claniques, le meurtre est l'une des premières causes de mortalité (Diamond 1999 : 277).

Les statistiques les plus anciennes dont on dispose viennent d'Angleterre et montrent qu'au XIIIe siècle, on comptait plus de 20 meurtres pour 100 000 habitants. Ce taux n'a cessé de chuter régulièrement jusqu'au milieu du XXe siècle, où le taux n'était plus que de 0,5 pour 100 000. Depuis, il a légèrement remonté (Chesnais 1995 : 96.). Les chiffres concordent également avec le violent tableau des siècles précédents que peignent les historiens :

« Les correspondances et les journaux intimes qu'on a pu retrouver indiquent qu'entre le XVe et le XVIIe siècle, les relations sociales étaient plutôt froides, voire inamicales. La très grande violence entre les gens, tant verbale que physique, qui apparaît dans les documents judiciaires ou autres, montre qu'à tous les niveaux, les hommes et les femmes étaient extrêmement colériques. Les désaccords les plus minimes se terminaient rapidement par des coups et la plupart des gens portaient une arme, ne serait-ce qu'un couteau de cuisine... La correspondance de l'époque était pleine de récits d'agressions brutales autour de la table ou dans les tavernes, bien souvent jusqu'à ce que mort s'ensuive...

La violence occasionnelle de la part d'inconnus était également une menace quotidienne. Les attaques brutales et gratuites de la part de bandes ou de jeunes désoeuvrés issus de bonnes familles, tels que les Mohawks, étaient fréquentes dans les rues de Londres au XVIIIe siècle. » [81]

p. 146

Moins de catastrophes et d'accidents

Si les catastrophes et les accidents font d'excellents titres dans la presse, le nombre des morts qu'ils ont provoqués a baissé au cours du siècle dernier.

Sur la figure 46, on voit que le taux de mortalité dû aux catastrophes naturelles est en forte diminution depuis le début du XXe siècle [82]. De 1900 à 1939, le taux de mortalité par accident était de 66 pour 100 000 sur un taux de mortalité total de 2 000 à 3 000 morts [83]. Dans les années 90 ces chiffres étaient respectivement de 1,4 et 927 (Keyfitz et F1ieger 1990 : 105.) Cette baisse vertigineuse atteint près de 98 % et, même si on la compare au taux de mortalité global, elle dépasse 94 % (Au début des années 1900, les catastrophes causaient 2,64 % de tous les décès, contre 0,15 % dans les années 1990.) Malgré un triplement de la population, le nombre de décès est passé de 1,2 million par an au début du siècle à 77 000 dans les années 90. La persistance de la baisse depuis les années 30 est due à de multiples facteurs, dont les progrès de la médecine, une meilleure prévention, une meilleure gestion des catastrophes et une moins grande vulnérabilité des sociétés. Par exemple, le nombre de morts victimes de cyclones a chuté de manière remarquable au Bangladesh grâce au Programme de préparation au cyclone mis en place par le gouvernement et à la Société du Croissant-Rouge du Bangladesh, ainsi qu'à l'existence d'abris publics contre les cyclones construits dans les années 70 (Lidstone 1997).

La diminution globale de décès par catastrophe naturelle se retrouve dans la diminution des accidents aux États-Unis et en Grande-Bretagne, illustrée par la figure 47, qui montre que tous les risques d'accidents mortels sont en baisse. Le taux de mortalité dû aux accidents a été divisé par quatre au cours du siècle, ce qui reflète une amélioration de la sûreté des produits utilisés. Les accidents de travail mortels ont chuté de plus de 85 % grâce à des équipements plus sûrs, à une formation plus poussée et à de meilleures conditions de travail (CDC 1999f). On estime que sans cette réduction notable des risques, il y aurait 40 000 travailleurs tués chaque année aux États-Unis. De même, le nombre d'accidents mortels par milliard de kilomètres/automobile sur la route a considérablement baissé, en particulier grâce aux améliorations de la construction et de la sécurité automobiles, tendance qui se retrouve dans tous les pays industrialisés (Tessmer 1999 ; CDC 1999e). La diminution la plus spectaculaire est celle des risques d'accidents d'avion, qui sont 150 fois moindres qu'en 1940 [...].

  Figure 47 — Estimation du nombre de décès par accidents au XXe siècle. Accidents du travail (pour 100 000 travailleurs), accidents (à l'exception des accidents de voiture, pour 100 000 habitants), accidents de voiture (par milliard de véhicules par km), accidents d'avion (lignes aériennes américaines par milliard de passagers par km) (le taux de mortalité par accident d'avion lissé par moyenne mobile sur sept ans), accidents de moto (par 100 millions de véhicules par km, soit 10 fois moins que tous les autres), cyclistes et piétons (par km par milliard ). Les morts par accident de voiture dans les premières décennies tournent autour de 150 à 200. Données pour les États-Unis, sauf pour les cyclistes et piétons pour la Grande-Bretagne. (Source : NSC 1990 : 29-30, 37, 72-73, 1999 : 36-37, 49, HHS 1997 : 59, 111, 165, NCHS l999a : 199, USBC l999c, GHWA 1996, ONS 1999 : 204, 2000a : 205, 2001a : 220, AT A 2001b, DOT 1999 : 1-228, 3-1.)

p. 149

Conclusion

Tous les grands secteurs de l'activité humaine ont connu de formidables progrès. Nous n'avons jamais vécu aussi longtemps ni aussi bien : l'espérance de vie a doublé en cent ans — et l'amélioration est encore plus marquée dans le monde en voie de développement. La mortalité infantile a chuté brutalement. En 1950, un enfant sur quatre mourait dans les pays en voie de développement alors qu'aujourd'hui, cette proportion est d'un enfant sur 18, ce qui équivaut à ce qui se passait dans le monde industrialisé il y a juste cinquante ans. Nous avons gagné en taille et nous sommes moins touchés par les maladies infectieuses. Et, pour reprendre la citation de Peter Adamson, nous sommes beaucoup plus nombreux, non pas parce que « les êtres humains se sont reproduits comme des lapins, mais bien plutôt parce qu'ils ont cessé de mourir comme des mouches ». En outre, nous avons davantage de nourriture. La proportion des gens qui souffrent de la faim dans le monde est tombée de 35 % en 1970 à 18 % aujourd'hui, et on prévoit 12 % pour 2010. Plus de deux milliards de personnes supplémentaires ont de quoi se nourrir et la ration calorique moyenne dans le monde en voie de développement a augmenté de 38 %.

Les revenus, tant dans le monde en voie de développement que dans les pays industrialisés, ont en même temps triplé en cinquante ans et la fréquence de la pauvreté a diminué. Le fossé dans la répartition des richesses entre les plus riches et les plus pauvres s'est un peu réduit et il est probable qu'il se réduira encore considérablement au cours du siècle.

Nous avons également de nombreux biens de consommation qui améliorent et facilitent la vie. Dans le monde développé, les gens ont des réfrigérateurs, de meilleurs logements, des voitures, des téléphones, des ordinateurs et des magnétoscopes. Ces biens deviennent aussi plus courants dans le monde en voie de développement, mais il est beaucoup plus important qu'un nombre accru de personnes bénéficient d'un approvisionnement en eau potable, aient accès à l'assainissement, à l'énergie et aux infrastructures.

Le nombre d'heures de travail a diminué de moitié en 120 ans et, comme nous vivons plus longtemps qu'avant, nous avons plus de deux fois plus de temps pour profiter de nos loisirs.

Le taux de meurtre a considérablement diminué, bien que cela soit compensé par la hausse du nombre de suicides. Il y a également bien moins d'accidents mortels qu'autrefois.

En moyenne, l'éducation a fait de gros progrès et, dans ce domaine, le monde en voie de développement est en train de rattraper le monde industrialisé. Le nombre de personnes qui suivent des études supérieures dans les pays en voie de développement a presque quintuplé. Dans l'ensemble, c'est un progrès incroyable.

Évidemment, de nombreux problèmes demeurent. Et c'est l'Afrique qui en pose le plus. La croissance économique y étant plus faible que partout ailleurs sur l'ensemble du siècle, le sida ayant englouti des parties entières de l'Afrique de l'Est, et la guerre et les divisions politiques et ethniques faisant rage, les perspectives ne sont pas gaies. Et pourtant, même l'Afrique est plus riche qu'au début du XXe siècle, avec une meilleure alimentation, des revenus plus élevés et une meilleure scolarisation. Même si l'état de la planète n'est pas satisfaisant, il s'est nettement amélioré.

Le monde dans son ensemble, en particulier les pays en voie de développement et même les régions troublées d'Afrique, a connu des progrès.

5. Forêts

p. 195

Allégations sans fondement

La forêt est une source d'énergie renouvelable que nous surexploitons certainement. Mais va-t-elle disparaître pour autant ? Une étude sur l'environnement publiée dans le magazine Time était intitulée : « Forêts du monde : massacre à la tronçonneuse. » (Time 1997 : 7) L'Institut des ressources mondiales (IRM) l'appelle purement et simplement : « Déforestation : l'offensive mondiale se poursuit. » (IRM 2000a) Le Fonds mondial pour la nature (WWF) a inondé le Net de messages de ce genre. Sur la figure 59, on peut voir la page d'accueil du site qui y a été installée jusqu'à 1998 et sur laquelle on peut lire :
           « Il faut AGIR MAINTENANT pour sauver ce qui reste de forêts sur la Terre. »

  Figure 59« Il faut AGIR MAINTENANT pour protéger ce qui reste de forêts sur terre. » Page d'accueil du site sur la forêt du WWF jusqu'à avril 1998.
(Source : http ://www.panda.org/forests41ife/)

Ailleurs, le WWF déclare que « les forêts du monde disparaissent à un rythme alarmant ». (WWF 1998b) C'est la continuation de la déclaration faite en 1997 par Claude Martin, directeur général du WWF international, au cours d'une conférence de presse baptisée « La onzième heure pour la forêt du monde ». Voici ce qu'il disait : « Je supplie les chefs de gouvernement de plaider pour la protection de leurs forêts dès maintenant, car on en est à la "onzième heure" pour les forêts du monde. » (WWF 1997c et 1997a : 6.) Il affirmait également que « la superficie et la qualité des forêts n'ont cessé de décliner à un rythme accéléré » (WWF 1997c). Le Worldwatch Institute prétend même que « la déforestation s'est accélérée au cours des trente dernières années » (WI 1998d). Mais de telles allégations sont sans fondement. Au niveau mondial, la superficie globale couverte par la forêt n'a guère changé depuis 1950, comme on peut le voir sur la figure 60[84].

   Figure 60 — Différentes estimations de l'ONU sur la superficie forestière mondiale, des forêts et des bois, de 1948 à 1994 et de 1961 à 1994, définition la plus étroite et restrictive pour la période de 1980 à 1995, et nouvelle définition unifiée pour la période de 1990 à 2000, toujours par la FAO. (Source : FAO Production Yearbooks 1949-1995, FAO 2000, l995a, 2001c : 34. Les données sont rares, mais ce sont de loin les meilleures qu'on puisse obtenir.)
       Les deux longues séries chronologiques pour la couverture forestière représentées sont Forests and Woodland, qui démarre en 1995, alors que les nouvelles estimations concernent la forêt fermée, c'est-à-dire avec la canopée couvrant plus de 20 % de la superficie de forêt dans le monde industrialisé et 10 % dans le monde en développement (FAO 1997c : 173-174). La nouvelle estimation 1990-2000 repose sur une définition commune de 10% de forêts (plus de 0,5 ha, avec une canopée de plus de 10 %, non réservés en priorité à l'agriculture ou à la ville, FAO 200lc : 23). Notez que FAO 1999a ne fournit pas de nouvelles données (p. 1, note 1). D'après les chiffres de la base de données de la FAO, la couverture totale de forêt en 1961 était de 4,375086e9 ha, soit 32,66 % de la surface de terres émergée totale. En 1991, le chiffre était de 4,316746e9 ha, soit 32,22 % de la surface totale de terre émergée. En 1994, (dernière date pour les données) la forêt couvrait 4,172401e9 ha, soit seulement 31,15 %, bien que la baisse d'un point soit due au fait que, avec le passage de l'URSS à la CEI, le rapport fasse état d'une diminution de 9,41530e8 ha en 1991 à 8,11689e8 en 1992. Cela doit provenir d'une erreur dans les données de ce rapport, car il dit également que la superficie de la forêt a beaucoup augmenté en Russie à cause des difficultés économiques (ex. : IRM 1996a : 206-207). Ces chiffres ont donc été corrigés ici.

Le patrimoine forestier mondial est resté extraordinairement stable pendant la seconde moitié du XXe siècle. D'après la plus longue série de données, la superficie forestière totale est passée de 30,04 % des terres émergées en 1950 à 30,89 % en 1994, soit une augmentation de 0,85 % sur 44 ans. Avec une série de données un peu plus courte datant de 1961, la couverture forestière mondiale présente une baisse de 32,66 à 32,22 %, soit 0,44 % sur les 35 dernières années environ. [...] La majeure partie de la forêt mondiale est concentrée dans quelques pays (Russie, Brésil, États-Unis et Canada) qui, à eux seuls, en possèdent plus de la moitié (FAO 200lc : 35). Au niveau de la planète, il y a environ trois fois plus de forêts que de terres agricoles (1 451 Mha de terres agricoles et 3 442 Mha de forêts fermées ou 5 120 Mha de forêts et autres terres boisées. (IRM 1996a : 216-218)).

p. 197

Forêts et Histoire

Depuis ses débuts d'agriculteur, l'homme prend sur la forêt pour augmenter la terre cultivée. Parlant des hauteurs de l'Attique à côté d'Athènes, Platon disait qu'elles ressemblaient au « squelette d'un corps miné par la maladie » à cause du déboisement (Platon 1961 : lllb-c ; 1, 216). L'Europe a perdu de 50 à 70 % de sa forêt originelle [85]. La plus grande partie a été abattue au début du Moyen Âge, soit pour la convertir en terre arable, soit pour en tirer du bois de feu. La moitié de la forêt française a disparu entre 1000 et 1300 (UNECE (Commission économique des Nations unies pour l'Europe) 1996 : 19). Au milieu du XIVe siècle, la Peste noire annihila un tiers de la population européenne, faisant ainsi régresser l'exploitation de la forêt qui se reconstitua en grande partie (Williams 1990 : 180, 181 ; UNECE 1996 : 1). Ce n'est qu'aux XVIe et XVIIe siècles que le repeuplement fit reprendre l'exploitation de la forêt, dont de larges sections furent à nouveau abattues. En 1700, la France avait perdu 70 % de sa forêt par rapport à l'an 1000 (UNECE 1996 : 19). Mais au XVIIIe siècle, les gens réalisèrent que les ressources forestières étaient limitées et qu'il importait de sauvegarder la forêt pour la construction navale. C'est pour cette raison qu'à partir de 1700, la superficie forestière ne diminua que de 8 % en Europe (Richards 1990 : 164).

Les États-Unis ont perdu environ 30 % de leur forêt originelle, principalement au cours du XIXe siècle (UNECE 1996 : 59). Cette réduction est restée modérée principalement parce que l'exploitation n'y a jamais été aussi forte qu'en Europe. Le doublement des terres agricoles entre 1880 et 1920 n'a presque pas affecté la superficie forestière totale, car il s'est fait en empiétant sur la prairie (CEQ1997 : 32).

En revanche, bien d'autres régions du monde ont connu une augmentation de la déforestation au XIXe siècle (Williams 1990 : tableau 11-1). L'Amérique latine fut incluse précocement dans l'économie mondiale et perdit environ 20 % de sa forêt au cours des trois derniers siècles (Richards 1990 : 164). La majeure partie de cette surface fut consacrée à la culture du sucre, puis à celle du café, après quoi la fièvre de l'or et du diamant, qui débuta en 1690, contribua à l'abattage d'environ 2 % de la forêt brésilienne (Williams 1990 : 183).

L'Asie, qui a longtemps pratiqué l'agriculture intensive, a rejoint assez tardivement l'économie mondiale. Ce n'est qu'après la guerre de Sécession et avec l'ouverture du canal de Suez en 1869 que l'Inde a commencé à exporter du coton en grande quantité (Williams 1990 : 188-189). Dans l'ensemble, l'Asie du Sud et la Chine ont perdu environ 50 % de leur couverture forestière depuis 1700 (Richards 1990 : 164) ; l'Asie du Sud-Est 7 % au cours des trois derniers siècles ; quant à l'Afrique et à la Russie, elles ont perdu un peu moins de 20 % (Richards 1990 : 164).

Au niveau mondial, il apparaît que, par rapport à la forêt originelle, la perte est d'environ 20 % depuis les débuts de l'agriculture [86]. Ce chiffre est bien inférieur à celui qui est si souvent brandi par diverses organisations. Le WWF, par exemple, comme il est dit dans l'introduction, prétend que nous avons perdu les deux tiers de nos forêts depuis l'apparition de l'agriculture, mais sans apporter de preuves pour étayer cette affirmation (WWF 1997e. Dans des publications postérieures, le WWF a revu ses estimations à la baisse, avançant le chiffre de 50 %, WWF 1997d).

p. 198

Déforestation : vue d'ensemble

Les forêts présentent de nombreux atouts. Les plus évidents sont les quelque 5 000 produits commerciaux tirés du bois, en particulier pour la construction, l'ébénisterie, le chauffage et le papier (Chiras 1998 : 211). On estime qu'au niveau mondial, l'exploitation forestière contribue pour quelque 2 % au PIB mondial, soit plus de 600 milliards de dollars américains (Estimation de la FAO (1997c : 36) à 2 % du PIB mondial, ce qui représentait à peu près 32 milliards de dollars (FMI 2000b : 113)).

En outre, les forêts offrent aux citadins des espaces de loisirs, elles contribuent à la prévention de l'érosion des sols qui envase le lit des fleuves et des lacs, et elles limitent les inondations (Chiras 1998 : 211). Enfin, les forêts tropicales, surtout, abritent de nombreuses espèces animales, comme nous le verrons dans la section sur la biodiversité.

Les forêts des pays tempérées, majoritairement situées en Amérique du Nord, en Europe et en Russie, s'agrandissent depuis 40 ans. En revanche, une bonne partie de la forêt tropicale disparaît. Or, c'est elle qui abrite la majorité de la flore et de la faune, lesquelles représentent de loin la plus grande biomasse de la planète (Cunningham et Saigo 1997 : 297). Dans la forêt tropicale humide, on trouve souvent plusieurs centaines d'espèces d'arbres sur quelques centaines de kilomètres carrés (Botkin et Keller 1998 : 179). C'est le phénomène inverse dans la forêt boréale : au Canada, sur plus de 1 000 kilomètres carrés de forêt boréale, on ne dénombre qu'une vingtaine d'espèces d'arbres (Botkin et Keller 1998 : 175-176).

À la fin des années 70, on a pu craindre que la moitié de la forêt tropicale ne vienne à disparaître dans les décennies à venir. D'après le Global 2000, le rapport sur l'environnement du président Carter, la perte annuelle de forêt tropicale se situe entre 2,3 et 4,8 % (Barney 1980 : II, 134 et 331. Les 2,3 % sont considérés comme un peu optimistes (ils sont l'équivalent de 40 % sur 22 ans), tandis que les 4,8 % représentent 66 % sur 22 ans.). Le biologiste bien connu Norman Myers estimait dès le début des années 90 que 2 % de la forêt dans son ensemble étaient détruits chaque année et croyait qu'en l'an 2000, soit juste neuf ans après ses prévisions, environ un tiers de la forêt tropicale serait rayée de la planète [87]. En fait, il prétendait que « dans quelques dizaines d'années tout au plus, on pourrait bien assister à la disparition des forêts tropicales (Myers 1991 : 47) ». Les estimations du même ordre de grandeur étaient courantes parmi les biologistes (Par ex. Raven et Prance 1991 : 71). On sait aujourd'hui qu'elles étaient amplement excessives. Les chiffres courants donnés par la FAO pour la déforestation des tropiques dans les années 80 sont de 0,8 % par an, et de 0,7 % dans les années 90 [88]. Avec la nouvelle étude de la FAO réalisée à partir d'images satellite fiables, l'estimation sur la déforestation tropicale nette est tombée à 0,46 % [89].

p. 201

Déforestation : combien ?

Pour apprécier toute l'étendue du problème, il faut pouvoir calculer la quantité de forêts effectivement détruites. Bien que l'on ne dispose pas de chiffres exacts, l'Union internationale pour la conservation de la nature et des ressources naturelles (International Union for Conservation of Nature, IUCN), estime que 80 % de la couverture forestière originelle sont encore en place. Et, depuis l'origine de l'Histoire, ce sont environ 20 % de toute la forêt tropicale qui ont disparu (Reid 1992 : 60), chiffre qui, comparé à celui du monde développé, où nous avons abattu presque la moitié de notre forêt, est relativement modeste.

En 1988, les scientifiques de l'Institut national de recherches spatiales du Brésil (INPE) annoncèrent que ses satellites avaient localisé pas moins de 7 000 incendies, et que le Brésil perdait 8 millions d'hectares de forêt, soit à peu près 2 %, chaque année (Cunningham et Saigo 1997 : 297-8). Ces chiffres ont valu de fortes critiques au Brésil pour avoir causé des dommages irréparables à la nature. Mais il est apparu par la suite que ces chiffres étaient fortement surestimés, et l'estimation provisoire officielle était pour 1999 d'environ 1,7 million d'hectares par an, soit un peu moins de 0,5 %. Et en réalité, la déforestation totale de l'Amazonie depuis l'apparition de l'homme n'a été que d'environ 14 %, comme on peut le voir sur la figure 61. Au moins 3 % de ces 14 % ont été depuis remplacés par une forêt secondaire (Plus de 100 000 km2 sont revenus à l'état de forêt depuis 1960 (Faminow 1997). Voir aussi Fearnside 1991 : 93).

  Figure 61 — État de la forêt en Amazonie, qui représente le tiers de la forêt tropicale du monde, 1978-1999. (Source : INPE 2000 : 7 ; Brown et Brown 1992 : 121.)

À l'évidence, sur la figure 61, la situation n'a pas l'air si dramatique. Il y a des raisons de croire que 70 % de la forêt amazonienne resteront intacts et, en avril 1998, le gouvernement brésilien a promis que des ordres de protection seraient appliqués à 25 millions d'hectares nouveaux.

p. 205

Conclusion

D'une manière générale, vu la déforestation en Europe et aux États-Unis, on peut se demander sur quoi nous nous appuyons pour nous indigner de la perte de forêt tropicale. N'est-il pas hypocrite d'accepter que nous ayons amplement profité de la coupe de grandes parties de nos propres forêts, et de ne pas permettre aux pays en voie de développement de bénéficier des mêmes avantages ?

[...] Si l'on ne veut pas que les pays en voie de développement exploitent leurs réserves forestières comme nous avons exploité les nôtres, il faut leur offrir une compensation, ce qui pourrait être fait de diverses manières. J'ai déjà évoqué les échanges « dette contre nature », où des sociétés ou des nations occidentales effacent des dettes en contrepartie de la protection d'importantes zones naturelles. [...]

Fondamentalement, en tout cas, nos forêts ne sont pas menacées. Dans une perspective historique, on a perdu 20 % de l'ensemble de la forêt, et un tiers de toutes les terres émergées sont encore boisées, ce qui n'a pas beaucoup changé depuis la Seconde Guerre mondiale. Le déboisement a touché la forêt tropicale à des niveaux bien moindres que les 1,5 à 4,6 % annuels qu'on a pu craindre, les données les plus récentes de la FAO indiquant un taux annuel de 0,46 %. Dans les pays en voie de développement, les forêts sont parfois gérées de manière irréfléchie et irresponsable, mais la première solution pour y remédier consiste à faire monter la croissance et à améliorer les bases économiques afin d'assurer aux pays concernés les ressources suffisantes pour penser à long terme. Sur le plan moral, on peut aspirer à réduire la déforestation tropicale dans l'intention de préserver la biodiversité, bien que la diversité biologique ne soit pas réduite autant qu'on l'avait cru à l'origine.

Enfin, la demande mondiale en papier peut être satisfaite de façon permanente par une production de bois qui affecte 5 % de la couverture forestière actuelle. Les plantations ne représentent pas grand-chose en termes de superficie forestière totale, et elles contribuent à alléger la pression sur la forêt naturelle, qui couvre encore plus de 95 % de la zone boisée du monde.

6. Ressources énergétiques

p. 210

La crise pétrolière

Qu'est-il advenu de la crise pétrolière ? On ne cessait de répéter que le pétrole était de plus en plus rare et sur le point de s'épuiser. Rien de tout cela ne s'est produit ; la crise du pétrole a eu lieu parce que, dans les années 70 et au début des années 80, les pays de l'OPEP ont pu réduire leur production et faire monter les prix. Mais cela n'a jamais été le signe d'une pénurie. Il y avait — et il y a toujours — assez de pétrole (Même Ehrlich est d'accord : Ehrlich et Ehrlich, The Population Explosion, 1991 : 46-47). Cela dit, dès qu'on a commencé à dépendre du pétrole, on s'est inquiété de l'épuisement des réserves. Beaucoup ont considéré la première crise du pétrole de 1973 comme la preuve infaillible de l'épuisement des réserves et un avertissement.

En 1972 parut un livre qui eut un succès et une influence considérables : Halte à la croissance. S'appuyant sur les nouveaux concepts d'analyse des systèmes et de simulation par ordinateur, il servit de point de départ à toute une série d'élucubrations sur notre surconsommation dans les années 70 et notre course vers le désastre. À partir d'interminables listings de données informatiques, le livre, qui présentait une série de scénarios catastrophes, était fondé sur deux arguments simples et primaires, qui sont encore aujourd'hui souvent avancés dans les discussions sur les ressources. L'un comme l'autre font référence à Malthus et aux questions de production agricole, mais leur formulation peut être assez générale. Le premier suppose que de nombreux processus de l'expansion sociale sont en croissance ; le second affirme qu'il y a des limites à cette croissance.

[...]

À partir de ces affirmations de croissance exponentielle et de ressources limitées, on peut facilement faire une prophétie apocalyptique. La croissance exponentielle signifie que la demande augmente de plus en plus et de plus en plus vite, alors que les limites fixent un plafond aux ressources accumulées. Et Halte à la croissance nous offre justement une prophétie apocalyptique : à l'en croire, le pétrole — et bien d'autres ressources — serait épuisé avant 1992 (Meadows et al. 1972 : 58). Comme nous le savons, rien de tel ne s'est produit. En 1987, Ehrlich prédisait le retour de la crise pétrolière pour les années 90 (Ehrlich et Ehrlich 1987 : 222). Qui n'a pas eu lieu non plus.

On aurait pu, croit-on, tirer les leçons de l'Histoire. Mais en 1992 fut publié Beyond the Limits, l'édition révisée de Halte à la croissance, qui prédisait, une fois de plus, l'épuisement des ressources à brève échéance (Meadows et al. 1992 : 74 et passim). Peut-être la première édition avait-elle manqué d'exactitude quant à l'année de l'épuisement des ressources, mais maintenant, on allait voir survenir les problèmes. Beyond the Limits prédisait à nouveau la pénurie de pétrole pour 2031 et de gaz pour 2050. Peut-être aurons-nous la possibilité de repousser quelque peu l'échéance, mais la consommation de gaz augmente de 3,5 % par an, c'est-à-dire qu'elle double tous les vingt ans (Meadows et al. 1992 : 74). C'est ainsi que, tous les vingt ans, il faut trouver autant de gaz nouveau que la totalité de la consommation jusqu'à ce jour. « Telle est la nature de la croissance exponentielle », dit le livre.

p. 214

Combien reste-t-il de pétrole ?

Il est peu probable que la tendance à long terme dévie sensiblement des tarifs actuels, car les prix élevés inhibent la consommation et encouragent le développement d'autres sources énergétiques, qu'elles soient issues du pétrole ou non. À l'inverse, des prix continuellement bas auraient l'effet contraire (EIA 2000b : 26).

Figure 66Années de consommation : réserves de pétrole comparées à la production annuelle de 1920 à 2000. (Source : Simon et al. 1994, EIA l997b : Tableau 11.3, 11.5, l999c : 271, 2000d : 277, 2000a : 109, 2000c : 136, 2001a : 137, 2001b : 113. Jusqu'en 1994, les réserves totales concernaient exclusivement les États-Unis et, depuis 1994, le monde entier.)

En outre, la figure 66 démontre que nous n'avons jamais eu autant de réserves, ce qui est particulièrement étonnant. Le bon sens voudrait que, s'il en restait pour 35 ans en 1955, il n'en reste plus que pour 34 ans l'année suivante. Et, en fait, ce serait plutôt 33 ans, vu que la consommation a été plus grande en 1956 qu'en 1955. Mais la figure 66 montre qu'en 1956, contrairement à ce que voudrait le bon sens, il y avait des réserves plus grandes malgré une consommation annuelle plus forte. Les réserves de pétrole ne semblent pas devoir se raréfier non plus dans les années à venir.

  Figure 65 — Prix du pétrole de 1871 à 2020 en $US 2000, et production mondiale de 1882 à 2020, prédiction de l'EIA (Agence pour l'information sur l'énergie) américaine pour 2001-2020. (Source : Simon et al. 1994, EIA l999c : 63, 273, 2000e : 127, 153, 2001a : 117, 137, 2001c : 13, CPI 2001.)

La figure 65 montre que la consommation de pétrole augmente régulièrement (à l'exception des années 70) comme l'avaient prévu les prophètes de malheur : la consommation mène à la panne. Mais la figure 67, elle, qui indique sur un même diagramme la demande et les réserves connues, montre clairement que l'évolution des réserves dépasse largement celle de la demande.

   Figure 67 — Réserves mondiales connues à ce jour et production mondiale de pétrole, de 1920 à 2000. (Source : les mêmes que pour la figure 66.)

p. 215

Optimistes — pessimistes : le débat

Pourquoi croyons-nous toujours que le pétrole se raréfie alors que ce n'est pas le cas ?

En 1865, Stanley Jevons, un des plus grands scientifiques européens, publiait un livre sur l'utilisation du charbon en Angleterre. Dans son analyse, la révolution industrielle connaissait une augmentation constante de la demande de charbon, qui provoquerait l'épuisement des réserves charbonnières de l'Angleterre et mettrait un terme à son industrie. « Il n'est pas raisonnable d'envisager une diminution des besoins en ce qui concerne le principal agent de l'industrie. » (Cité dans Simon 1996 : 165.) Ces arguments n'étaient pas différents de ceux de Halte à la croissance. Mais ce que Jevons n'avait pas compris, c'est que l'augmentation des prix inciterait la recherche à trouver des utilisations plus rentables, des gisements nouveaux, des transports moins coûteux, ainsi que d'autres sources d'énergie, comme le pétrole par exemple (Simon 1996 : 164-165). On n'a jamais assisté à la crise prévue par Jevons.

L'ingéniosité des hommes permet à la fois d'exploiter plus efficacement les réserves et d'en trouver de nouvelles. Il est vrai que la Terre est ronde et limitée, ce qui n'est pas forcément une objection valable. Le problème consiste plutôt à connaître la taille des gisements actuellement exploitables. Ils peuvent sembler limités, mais si les prix augmentent, cela incitera d'autant plus la recherche de nouveaux gisements et la mise au point de nouvelles techniques pour les exploiter. Par conséquent, la hausse des prix fait augmenter les réserves, ce qui fait retomber les prix.

La question de savoir si les ressources diminuent ou augmentent est consécutive aux deux façons de considérer le problème : les tenants de l'apocalypse affirment que les ressources sont physiquement limitées et que, par conséquent, elles doivent disparaître, alors que les partisans de la corne d'abondance font confiance à l'ingéniosité de l'Homme et aux preuves empiriques des données (Par ex. Nordhaus 1992b: 16).

p. 216

De plus en plus de pétrole

Sur la figure 65, on voit nettement que le prix du pétrole n'a jamais connu de hausse prolongée et que le pétrole ne s'est pas raréfié. Sur la figure 66, il apparaît qu'il y a de plus en plus de pétrole. Cela peut sembler étrange. Comment se fait-il qu'en en utilisant toujours plus, il en reste autant ?

Les réponses à cette question ramènent aux trois arguments fondamentaux concernant la limitation des ressources.

1) Les « ressources connues » ne représentent pas une entité délimitée. On est loin de connaître tous les gisements de pétrole : c'est en explorant de nouvelles régions qu'on découvre de nouvelles couches. Mais comme ces sondages sont coûteux, ils ne sont pas réalisés trop en amont d'une exploitation éventuelle. Par conséquent, de nouveaux champs pétrolifères continueront d'apparaître à mesure que la demande croîtra, ce qui explique en partie pourquoi le nombre d'années de consommation restantes augmente au lieu de diminuer.

2) On sait mieux exploiter les ressources. L'utilisation de nouvelles technologies permet d'extraire de plus en plus de pétrole des champs déjà connus, d'en découvrir de nouveau, et d'exploiter des gisements autrefois trop chers et/ou trop difficiles. Un forage initial ne permet en général d'exploiter que 20 % du pétrole présent dans la réserve. Même avec les techniques perfectionnées actuelles, qui utilisent l'eau, la vapeur, ou des liquides chimiques pour extraire davantage de pétrole, il en reste souvent plus de la moitié dans le sous-sol. On estime que les dix principaux champs pétrolifères américains contiendront encore 63 % de leur pétrole quand on cessera de les exploiter (Craig et al. 1996 : 134). Par conséquent, il reste encore beaucoup à faire dans ce domaine. D'après le dernier rapport du USGS, les progrès techniques devraient permettre d'obtenir une augmentation de plus de 50 % sur les réserves répertoriées (USGS 2000b).

De plus, aujourd'hui, on tire un meilleur parti de chaque litre de pétrole. La voiture américaine moyenne a optimisé sa consommation de 60 % depuis 1973 (De 13,4 à 21,4 miles par gallon (EIA 2000c : 17)). Le chauffage s'est également amélioré en Europe et aux États-Unis, de 24 à 43 % (De 1973 à 1992, l'Europe a diminué sa consommation d'énergie par m2 de 24 %, et les États-Unis de 43 % (Schipper et al. 1996 : 184)). De nombreux appareils, comme le lave-linge et le lave-vaisselle, ont diminué leur consommation de 50 % (Schipper et al. 1996 : 187). Au Danemark, les appareils électroménagers ont gagné de 20 à 45 % d'efficacité au cours des dix dernières années (NERI 1998a : 238).

3) Il est possible de remplacer le pétrole, car il n'est pas recherché en tant que tel, mais pour les services qu'il procure, principalement le chauffage, l'énergie ou le combustible, que l'on peut obtenir avec d'autres énergies. Il est donc envisageable de passer à d'autres sources énergétiques si elles se révèlent aussi performantes ou moins chères. En Angleterre, vers 1600, le bois était devenu de plus en plus onéreux (à cause de la déforestation locale et d'une mauvaise infrastructure), ce qui précipita le passage au charbon, phénomène similaire à celui des États-Unis [...]. À la fin du XIXe siècle, de la même façon, c'est le pétrole qui se substitua au charbon.

À court terme, il serait tout à fait possible de remplacer le pétrole par les autres combustibles fossiles connus comme le gaz et le charbon. À long terme, en revanche, on pourra couvrir une partie des besoins énergétiques par l'utilisation de l'énergie nucléaire, éolienne, solaire, par la biomasse et l'huile de schiste.

    Figure 71 — Part de la production énergétique mondiale par source, 1998.
(Source : EIA 2000a : 201 et suiv., IRM l998b.)

   Figure 73 — Tous les chiffres des ressources et des potentiels sont des estimations
et ne doivent être pris que comme un ordre de grandeur.
(Source : Craig et al. 1996 : 159, 163, 181, 193, Cunningham et Saigo 1997 : 505.)

Conclusion

À l'évidence, il s'avère que nous n'allons pas subir une crise de l'énergie : il y en a en quantité suffisante.

Nous avons vu que, malgré une consommation sans cesse accrue d'énergie fossile, nous en trouvons toujours davantage. Nos réserves — même si nous les mesurons en années de consommation — en pétrole, en charbon et en gaz, ont augmenté. Au rythme de consommation actuel, nous avons aujourd'hui du pétrole pour au moins 40 ans, du gaz pour au moins 60 ans et du charbon pour 230 ans.

À 40 dollars le baril (soit moins d'un tiers de plus que le prix actuel mondial), l'huile de schiste peut assurer la production pour les 250 années à venir au rythme actuel de consommation. Tout compte fait, elle suffira à couvrir nos besoins énergétiques pour les 5 000 années à venir. Il reste de l'uranium pour 14 000 ans. Nos coûts énergétiques actuels représentent moins de 2 % du PIB mondial et donc, même si l'on devait voir des augmentations considérables des prix, elles ne pourraient avoir de conséquences fatales sur le bien-être, et il est tout à fait vraisemblable que la part de budget consacrée à l'énergie continuera à diminuer.

En outre, il existe beaucoup de façons d'utiliser les sources d'énergies renouvelables. Aujourd'hui, elles ne représentent qu'une part infime de l'ensemble de la production énergétique, mais cela peut — et va probablement — changer. Les prix de l'énergie solaire et de l'énergie éolienne ont baissé de 94 à 98 % au cours des 20 dernières années, et ils commencent à approcher des seuils de rentabilité. Les ressources en énergies renouvelables sont pratiquement illimitées. Le soleil nous envoie une énergie qui représente à peu près 7 000 fois notre consommation : il suffirait par exemple de couvrir 2,6 % du désert du Sahara de panneaux solaires pour répondre à la totalité de nos besoins énergétiques. On estime que l'énergie éolienne pourrait satisfaire environ la moitié de notre consommation.

Toutes ces énergies ne doivent pas nous faire oublier que les combustibles fossiles qui fournissent aujourd'hui la plus grande part de notre énergie ne sont pas renouvelables : si la technologie restait constante et que nous continuions à nous servir uniquement de combustibles fossiles, nous finirions par manquer d'énergie. Mais le fait est que la technologie ne stagne pas et que les combustibles fossiles ne sont pas la seule ni la principale source d'énergie à long terme. L'Histoire nous montre que nous avons amélioré nos capacités à découvrir, extraire et utiliser des combustibles fossiles, dépassant même le rythme de notre consommation en augmentation. Nous savons aussi que l'énergie solaire disponible dépasse de loin nos besoins énergétiques et sera disponible à des tarifs compétitifs d'ici à une cinquantaine d'années.

Malgré tout, on continue à entendre dire que nous allons incessamment être à court d'énergie. Les données nous montrent que cela n'est pas plausible. [...]

Avec le temps, il est probable que nous allons substituer aux combustibles fossiles d'autres types de sources énergétiques moins coûteuses, peut-être renouvelables, ou de fusion, ou issues de technologies que nous n'avons pas encore imaginées. Ainsi, tout comme l'Âge de pierre ne s'est pas terminé faute de pierre, l'âge du pétrole ne se terminera pas faute de pétrole. C'est plutôt la disponibilité de solutions alternatives supérieures qui y mettra un terme.

7. Épuisement des ressources non énergétiques

p. 234

L'inquiétude au sujet de l'épuisement des ressources naturelles ne concerne pas seulement l'énergie, mais aussi les nombreuses autres ressources non renouvelables utilisées de nos jours. Et les raisons de cette inquiétude ressemblent étrangement à celles exposées dans le chapitre sur l'énergie.

À vrai dire, la peur de manquer a toujours existé. Dans l'Antiquité, c'est la pénurie de cuivre et d'étain qui était la plus redoutée. Et le best-seller Halte à la croissance (rapport du Club de Rome paru en 1972) se servit de cette peur ancestrale pour prétendre que la plupart de nos ressources naturelles allaient disparaître. L'or serait épuisé en 1981, l'argent et le mercure en 1985 et le zinc en 1990 (Meadows et al. 1972 : 56 et suiv.). Or, nous n'en sommes pas encore là.

Les pessimistes ont parié sur l'épuisement des ressources — et ont perdu

Bien que les économistes aient depuis longtemps reconnu que la peur de manquer n'était pas fondée, les intellectuels des années 70 et 80 ont été comme captivés par cette idée. Aujourd'hui encore, la plupart des débats semblent avoir pour toile de fond les arguments qui renvoient à la logique de Halte à la croissance.

En 1980, lassé d'entendre répéter que la planète allait manquer de pétrole, de denrées alimentaires et de matières premières, l'économiste Julian Simon fit un pari pour dénoncer ces idées reçues. Il proposa de parier 10 000 dollars que le prix de n'importe quelle matière première — choisie par ses opposants — baisserait en l'espace d'un an. Sûrs d'eux, les écologistes Ehrlich, Harte et Holdren, tous de l'université Stanford, relevèrent le défi, déclarant que l'attrait de « l'argent facile est irrésistible » (Simon 1996 : 35-36). Tous misèrent sur le chrome, le cuivre, le nickel, l'étain et le tungstène sur une période de 10 ans, à la fin de laquelle on pourrait déterminer si les prix réels (indexés sur le coût de la vie) avaient augmenté ou pas. En septembre 1990, le prix de chacune de ces matières premières avait baissé. Le chrome avait perdu 5 %, et l'étain plongé de 74 %. Les prophètes de malheur avaient perdu leur pari. En tout état de cause, ils ne pouvaient pas gagner. Qu'Ehrlich et ses confrères aient misé sur le pétrole, les denrées alimentaires, le sucre, le café, le coton, la laine, les minéraux ou les phosphates, tous les prix avaient baissé (IRM 1996a : 170). [Rappelons qu'en économie, la loi de l'offre et la demande établit que plus une ressource est abondante, plus bas sera son prix de vente. (Note F. B.)]

Baisse des prix

Les prix de la plupart des produits industriels n'ont cessé de chuter ces 150 dernières années. La figure 74 montre comment ils ont diminué de près de 80 % depuis 1845. Parallèlement, la Banque mondiale a établi un indice des 24 produits non énergétiques les plus vendus (comme l'aluminium, les bananes et la laine). En un siècle, leurs prix ont été réduits des deux tiers (Léon et Soto 1995 : 16 (indices de 1900 à 1992) trouvent que sur 24 produits, 15 sont moins chers, 6 sont restés stables et 3 seulement sont plus chers.). Pour les métaux, c'est la même chose. Sur la figure 75, l'indice du FMI montre une baisse d'environ 50 % depuis 1957.

   Figure 74 — Indice des prix industriels, The Economist, de 1845 à 2000, révisés en fonction de l'inflation, base 100 = 1845 à 1850. L'indice comprend les prix de produits tels que coton, bois, peaux, caoutchouc, aluminium et cuivre.
(Source : Anon l999h : 147, The Economist, toutes les publications 2000, CPI 2001.)

    Figure 75 — Indice des prix des métaux en $US, de 1957 à 2000, avec base 2000 = 1.
(Source : FMI 2001a, CPI 2001.)

L'ensemble des matières premières représente à peine 1,1 % du PIB mondial (Celui-ci est calculé avec les prix et les quantités des 93 matières premières retenues par USGS, dont les 24 listées dans le tableau 2. Il est équivalent au 1,2 % cité par Goeller et Zucker 1984 : 457. Étant donné que certaines matières premières de la liste se recoupent, cette estimation est assurément maximale.), et un petit nombre d'entre elles se partagent la majeure partie de ce pourcentage. Le tableau 2 donne la liste des 24 matières premières les plus vendues. À elles seules, elles génèrent 95 % de la totalité du chiffre d'affaires mondial des matières premières (Des analyses antérieures ont porté sur les poids des matières premières, un choix surprenant et moins évident (Ägerup 1998 : 83 ; Simon 1996 : 48 ; Kahn et al. 1976 : 101 et suiv.).). Les 70 autres matières premières se partagent moins de 0,05 % de notre revenu. Par conséquent, si les prix de certains de ces produits devaient augmenter — même fortement — leur incidence sur l'économie serait négligeable.

Tableau 2 — Les 24 produits représentant plus de 95 % du chiffre d'affaires mondial des matières premières. (Source : USGS l998a.) Les années de consommation sont calculées sur la base de la production actuelle divisée par réserve de base. Remarque : Certaines catégories de matières premières se recoupent partiellement. Les prix et les quantités sont très fluctuants. On a essayé d'obtenir toutes les données pour 1997, mais cela n'a pas toujours été possible. De plus, les produits sont à des stades de transformation différents. Par conséquent, ce tableau est simplement indicatif des tendances générales et montre la limite maximale de nos dépenses dans ce domaine. Ici les coûts du ciment, de l'aluminium, du fer, du cuivre, de l'or, de l'azote, et du zinc représentent près de 80 % des dépenses mondiales de matières premières. Mt — millions de tonnes ; Gt — gigatonnes.

p. 245

Les autres ressources

À la fin des années 80, des études passant en revue 47 éléments ayant des applications dans la haute technologie ont montré que seulement 11 d'entre eux semblaient avoir des réserves peut-être insuffisantes. Ces éléments sont listés dans le tableau 3. Il s'avère que pour tous sauf trois, les stocks ont augmenté et non diminué depuis 1988. Le coût total de ces trois produits représente environ trois millionièmes du PIB mondial. Le tantale est utilisé dans l'industrie aéronautique, pour des alliages de haute technologie, et en électronique. Il faudra sans doute le remplacer partiellement par d'autres matériaux plus chers ou moins performants, mais, dans l'ensemble, le coût en résultant sera infime. La baisse des réserves de mercure est essentiellement due au fait que nous en utilisons moins — depuis 1971, la consommation mondiale a été réduite à moins d'un tiers — d'où le désintérêt commercial à trouver de nouvelles sources. On estime que sur la base des réserves identifiées à ce jour, il y a du mercure pour 100 ans. Le problème du cadmium est encore plus simple. Le cadmium est essentiellement utilisé pour les piles rechargeables et, sur le plan technologique, il peut être remplacé par bien d'autres — et souvent meilleures — solutions. Toutefois, l'USGS estime que les ressources en cadmium devraient suffire à satisfaire la demande pendant une bonne partie du XXIe siècle (Kuck et Platchy 1996 : 6).

Tableau 3 — Liste des 11 éléments, sur 47, dont les réserves connues risquent d'être insuffisantes. (Source : Fraser et al. 1988 : 9 ; voir Pearce et Turner 1990 : 295 ; USGS l998a.)

Quant aux autres éléments, ils sont de plus en plus abondants, et non l'inverse. C'est ce qui permet aux auteurs de l'ouvrage universitaire de référence sur l'économie des ressources naturelles, David Pearce and R. Kerry Turner, de conclure que tout concourt à prouver « l'improbabilité de l'émergence d'un problème de pénurie réelle en ce qui concerne la plupart des matériaux couramment utilisés ». (Pearce et Turner 1990 : 293-294)

p. 246

Pourquoi nos ressources ne cessent-elles d'augmenter ?

On sait à présent pourquoi nous ne sommes pas à court d'essence, de gaz et de charbon. Mais en est-il de même de toutes les ressources ?

1) Premièrement, l'expression « réserves connues » sous-entend que l'estimation n'est pas figée. Il existe des possibilités de trouver de nouveaux gisements et c'est ce qui se produit continuellement. Cela est mis en évidence sur la figure 77, où l'on voit que les réserves en matières premières les plus importantes ont augmenté en dépit d'une multiplication annuelle de la consommation de l'ordre de 2 à 15. Le coût des recherches freine la découverte de nouveaux gisements, mais on les trouve dans un délai raisonnable au fur et à mesure des besoins.

  Figure 77 — Années de réserves de consommation des 4 métaux les plus utilisés, de 1950 à 2000 (fer 1957 à 2000). (Source :Simon et al. 1994, USGS 2001a.)

2) Deuxièmement, nos techniques d'extraction et d'exploitation se sont améliorées. Aujourd'hui, on utilise deux fois moins de métal qu'en 1970 pour fabriquer une voiture. Des fibres optiques ultrafines transmettent le même nombre d'appels téléphoniques que ne le faisaient 625 fils de cuivre il y a 20 ans à peine, et avec plus d'efficacité (Meadows et al. 1992 : 83). On peut imprimer les journaux sur du papier de plus en plus fin, car la fabrication du papier a beaucoup évolué. La construction des ponts nécessite beaucoup moins d'acier, d'une part parce que l'acier est plus résistant, et d'autre part parce que les méthodes de calcul sont devenues plus précises. Nos outils durent plus longtemps et n'ont donc pas besoin d'être remplacés aussi souvent (Hille 1995 : 329-330). De plus, la technologie de l'information a changé notre consommation : nous achetons relativement moins de supports concrets, mais plus d'unités d'information. Des programmes informatiques valant plusieurs centaines de dollars seront enregistrés sur un CD-ROM en plastique qui vaut à peine 2 cents. (Ausubel (1996) fait remarquer que maintenant quelques disques compacts peuvent contenir tous les numéros de téléphone des foyers et entreprises américains, une somme d'information qui, auparavant, dans les annuaires, pesait 5 tonnes.) Bien que les Américains se soient enrichis de 30 % ces vingt dernières années, leur consommation de bois, de métal et de plastique a diminué. (En 1972, le revenu par habitant était de 13 747 $US tandis qu'en 1992, il était de 17 945 $US en PPP$ réels de 1985 (IRM 1996a). Baisse de la consommation de bois, métal et plastique. CEQ1996 : 75.)

3) Troisièmement, il est possible de recycler les plastiques et donc d'augmenter encore les stocks. Il paraît important de rappeler que, contrairement à l'énergie, les métaux ne disparaissent pas, mais une fois utilisés, changent seulement de forme et de destination. Actuellement, un tiers de la production mondiale d'acier est recyclé, tandis que les taux de recyclage pour les autres métaux sont les suivants : 25 à 30 % pour l'aluminium, 25 % pour le nickel, 45 à 50 % pour l'argent et le plomb, 15 à 20 % pour l'étain, 35 à 40 % pour le cuivre et 20 à 25 % pour le zinc (Hille 1995 : 322). Le recyclage a cependant ses limites. Une partie des métaux disparaît suite à la corrosion et certains produits sont conçus de telle manière que leurs composants sont peu ou pas recyclables. En théorie, l'amélioration constante du rendement et du recyclage devrait permettre de ne jamais épuiser une ressource limitée. Si les stocks d'une matière première sont estimés pour une durée de 100 ans et que la demande est en hausse de 1 % par an et le taux de recyclage ou la productivité de 2 %, il est possible de ne jamais en être à court malgré la hausse de sa consommation. (Baumol 1986. C'est tout à fait une hypothèse d'école : personne ne voudrait croire qu'il est possible d'augmenter la productivité éternellement de, disons, 2 %, mais en pratique, cela est possible pendant un certain temps, et cela signifie que l'on peut faire durer les ressources beaucoup plus longtemps qu'on ne le pense habituellement.)

4) Enfin, ces matériaux sont souvent interchangeables. Au Zaïre, en 1978, lorsque des problèmes politiques internes firent baisser de 30 % la production de cobalt, les prix se mirent à flamber. Mais très vite, des aimants en céramique récemment mis au point se substituèrent à ceux fabriqués avec un alliage de cobalt, les peintures à base de cobalt furent remplacées par des peintures à base de manganèse, et les prix du cobalt retombèrent rapidement (Goeller et Zucker 1984 : 456-457). Une étude sur l'utilisation du cuivre aux États-Unis a montré le fonctionnement de ce mécanisme de substitution. En supposant que les réserves bon marché de cuivre soient épuisées en 2070, ne laissant comme seule possibilité que la solution très onéreuse de l'extraction dans la roche, on pourrait quand même régler le problème à moindre coût (moins de 0,5 % du chiffre d'affaires) en ayant recours à la substitution du cuivre dans la plupart de ses applications (Tietenberg 2000 : 326).

De même, la technologie de l'information a créé des produits de substitution pour un grand nombre de matières premières traditionnelles. Si aujourd'hui, nous utilisons moins de mercure, c'est en partie parce que l'usage du thermomètre digital s'est répandu. Comme indiqué précédemment, la photo numérique risque de réduire de moitié la consommation d'argent. Il est vrai que si la plupart des matières premières peuvent être interchangeables, le procédé reste suffisamment coûteux pour être limité.

Enfin, la demande en minéraux n'a pas augmenté de manière exponentielle, comme le redoutaient les prophètes de malheur, mais plutôt de manière linéaire (Meadows et al. 1992 : 82) : raison supplémentaire de ne pas s'inquiéter pour nos ressources futures.

p. 248

Conclusion

Tous les indicateurs semblent suggérer qu'il est peu probable que nous devions faire face à une réduction importante des matières premières dans l'avenir. Les prix de pratiquement toutes les ressources n'ont fait que baisser au cours du siècle dernier et, malgré une hausse inouïe de la production d'un grand nombre de matières premières essentielles, il reste aujourd'hui plus d'années de réserves que jamais.

Les matières premières représentent une dépense totale de 1,1 % du PIB mondial et 60 % de nos dépenses concernent des matières premières avec des réserves pour plus de 200 ans. Une analyse de toutes les matières premières essentielles montre que les réserves de trois d'entre elles seulement ont baissé et que cette baisse n'est sérieuse que pour une seule : le tantale. Le coût total du tantale est inférieur à un millionième du PIB mondial, et on peut lui substituer d'autres produits.

Nous avons souvent eu peur de manquer de matières premières. Mais l'or, l'argent, l'étain et le mercure sont toujours là, et pour cause.

Comme dans le chapitre sur les combustibles fossiles, le fait que ces matières premières ne soient pas renouvelables n'est pas remis en question : si on continuait à utiliser ces ressources sans faire évoluer la technologie, on finirait par les épuiser. Mais si j'en arrive à la conclusion que le risque d'épuisement est faible, c'est parce que nous trouvons sans cesse de nouvelles ressources, que nous savons les exploiter avec toujours plus d'efficacité, les recycler et les remplacer.

8. Accès à l'eau douce

p. 253

Trois problèmes majeurs

Il y a trois problèmes cruciaux qui débouchent sur trois questions.
1) D'abord, la répartition des précipitations est tout à fait inégale selon les régions. Cela signifie que l'accès aux ressources en eau n'est pas le même pour tous et que, dans certains pays, il est beaucoup plus difficile que ne le laisse supposer la moyenne mondiale. La question est de savoir s'il existe actuellement des pénuries graves dans certaines régions.
2) Deuxièmement, le nombre d'habitants sur cette Terre allant croissant, et les précipitations restant plus ou moins constantes, il y a moins d'eau pour chacun. Ces pénuries vont-elles s'aggraver à l'avenir ?
3) Troisièmement, de nombreux pays s'approvisionnent en eau à partir des cours d'eau ; 261 réseaux fluviaux arrosant un peu moins de la moitié des terres de la planète sont répartis sur deux pays ou plus (Wolf 1999 : 251), et au moins 10 fleuves traversent une demi-douzaine de pays ou plus. La plupart des pays du Moyen-Orient se partagent des nappes aquifères (Banque mondiale 1992 : 48 ; Wallensteen et Swain 1997 : 9-12 ; Engelman et LeRoy 1993). On voit ici que la question de l'eau a une dimension internationale. S'il n'y a pas de coopération, risque-t-elle d'entraîner des conflits mondiaux ?

En plus de ces trois problèmes importants, deux autres difficultés viennent se greffer à la pénurie. L'une concerne, en particulier, la pollution de l'eau potable (World Water Council 2000 : XXVII ; CSD 1997 : 8), qu'il est essentiel d'éviter, en partie parce qu'elle réduit le volume d'eau douce actuellement disponible. Mais elle n'est pas liée au problème de pénurie en soi. Par conséquent, nous étudierons ce problème dans le chapitre sur l'eau potable et les pesticides.

La seconde difficulté concerne l'accessibilité à l'eau potable, un problème que nous avons déjà examiné et qui reste un obstacle majeur au bien-être de la population. Dans les discussions sur la pénurie d'eau, la difficulté universelle d'accès à l'eau potable et à l'assainissement est souvent évoquée (Cité comme le premier problème au World Water Council 2000 : XX. CSD 1997 : 100), mais il est évident que cette question est totalement indépendante du problème de pénurie d'eau. Il n'existe pas de pénurie (puisque les besoins humains sont de 50 à 100 litres d'eau par jour, ce que n'importe quel pays peut fournir, à part le Koweït, voir tableau 4) (« Des milliards d'individus ne peuvent avoir accès à une quantité minimum d'eau de 50 [litres par habitant et par jour], bien que... l'accessibilité absolue de l'eau ne soit pas le problème » (Gleick 1999b : 9).), mais surtout un manque d'investissements dans les infrastructures. Ensuite, la solution n'est pas de limiter la consommation actuelle, mais plutôt d'augmenter la consommation future.

Enfin, il faut mentionner le réchauffement de la planète (traité ci-après, dans la Partie V, chapitre 24) et son rapport avec l'utilisation de l'eau. Intuitivement, on pourrait penser qu'une élévation des températures serait synonyme de plus d'évaporation, et donc de nouveaux problèmes. Non, car une évaporation plus importante entraîne plus de précipitations. Les modèles climatiques mondiaux sont essentiellement sensibles aux diminutions de précipitation (poussant certains pays au-dessus ou au-dessous du seuil), mais, dans l'ensemble, les changements sont faibles (1 à 5 %) et vont dans les deux sens. (Arnell 1999 : S43-44).

p. 254

De l'eau en quantité insuffisante ?

Tableau 4Pays souffrant de pénurie d'eau chronique (au-dessous des 2 740 litres par habitant par jour) en 2000, 2025 et 2050, en comparaison avec d'autres pays. Eau disponible, y compris les cours d'eau. Population recensée par l'ONU dans la révision 1996, assez compatible avec la nouvelle révision 2000. (Source : IRM l998a.)

La répartition des précipitations n'est pas uniforme. Certains pays telle l'Islande disposent de presque 2 millions de litres d'eau par personne et par jour, tandis que le Koweït doit se contenter de 30 litres (IRM 1996a : 306). Quand peut-on dire d'un pays qu'il manque d'eau ? On estime qu'il est suffisant pour un être humain de disposer de 2 litres d'eau par jour au minimum (Craig et al. 1996 : 387 ; Gleick 1999b).

L'approche la plus commune est d'utiliser l'indice de stress hydrique proposé par l'hydrologue Malin Falkenmark, indice qui tente de déterminer la quantité d'eau minimale permettant à un individu de maintenir une qualité de vie correcte dans un pays modérément développé, situé dans une zone aride. Cette approche a été utilisée par de nombreuses organisations telles que la Banque mondiale, dans tous les ouvrages consacrés à l'écologie, et dans le débat sur la rareté de l'eau dans World Resources. (Engelman et LeRoy 1993 ; Gardner-Outlaw et Engelman 1997 ; GEUS 1997b ; IRM 1996a : 301 et suiv. ; Miller 1998 : 494 ; Serageldin 1995 : 1-2 ; Wallensteen et Swain 1997 : 8 ; Chaibi 2000.) Cet indice fixe les besoins à 100 litres d'eau par jour et par personne, pour la boisson, la maison et l'hygiène personnelle, et à 500 à 2 000 litres pour l'agriculture, l'industrie et la production d'énergie. Les besoins étant plus forts pendant la saison sèche, le niveau de stress hydrique est fixé encore plus haut : si un pays dispose de moins de 4 660 litres par personne, il est susceptible de souffrir de stress hydrique régulier ou périodique. Si l'eau de surface accessible descend au-dessous de 2 740 litres, on dit que le pays souffre de pénurie chronique. Au-dessous de 1 370 litres, le pays est dans un état de pénurie absolue, d'insuffisance totale et de pénurie aiguë.
(Équivalant à 1 700 m3/an, 1 000 m3/an et 500 m3/an (Wallensteen et Swain 1997 : 8).)

Le tableau 4 montre les 15 pays qui, en 2000, regroupent 3,7 % de la population mondiale souffrant de pénurie d'eau chronique d'après la définition ci-dessus. La présence de ces pays n'est pas surprenante. Mais il s'agit d'évaluer la gravité de la situation.

Comment le Koweït arrive-t-il à faire face avec seulement 30 litres d'eau par jour ? Le fait est qu'il n'y arrive pas. Le Koweït, la Libye et l'Arabie Saoudite couvrent une partie de leurs besoins en eau en exploitant la plus grande ressource en eau existante : par le dessalement de l'eau de mer. (Craig et al. 1996 : 396-398 ; Al-Rashed et Sherif 2000.) Le Koweït a recours au dessalement pour couvrir la moitié de ses besoins (Gleick 1993b : 381). Le dessalement nécessite une grande quantité d'énergie (soit par réfrigération soit par évaporation), mais tous ces pays sont aussi dotés d'abondantes sources d'énergie. Le prix du dessalement de l'eau de mer oscille entre 50 et 80 $US/m3 et celui de l'eau saumâtre entre 20 et 35 $US/m3, ce qui rend le coût de l'eau traitée plus élevé que celui de l'eau douce, mais pas hors de portée (Semiat 2000 : 54, 62).

Cet exemple montre, d'une part, que nous pouvons nous procurer assez d'eau, si nous avons les moyens financiers — une fois de plus, cela met en évidence que c'est la pauvreté et non l'environnement qui freine le règlement des problèmes — d'autre part, le dessalement offre de nouvelles solutions à la question de l'eau dans le monde. En théorie, nous devrions pouvoir produire la totalité de la consommation actuelle d'eau de la planète à partir d'une seule installation de dessalement fonctionnant à l'énergie solaire. Cette usine occuperait à peine 0,3 % de la superficie du Sahara.

Il y a également un problème fondamental quand on considère les ressources totales. Nous ne savons pas nécessairement si l'eau utilisée l'est de manière rationnelle. De nombreux pays s'en sortent très bien avec des ressources en eau très limitées, car elles sont exploitées de manière efficace. Israël en est l'exemple parfait. Ce pays a atteint un degré élevé d'efficacité dans le domaine agricole, d'une part, parce qu'il utilise le système d'irrigation par goutte-à-goutte pour fertiliser le désert, et d'autre part, parce qu'il recycle ses eaux usées domestiques pour l'irrigation (WI 1993 : 28). Pourtant, avec à peine 969 litres par personne et par jour, Israël devrait, selon la classification, être dans un état de pénurie absolue. Cela explique pourquoi l'un des auteurs d'une note d'information sur le rapport 1997 de l'ONU sur l'eau souligne que la limite de 2 740 litres « est considérée à tort par certaines autorités comme la quantité critique minimum permettant la survie d'une société moderne » (Shuval 1997 : 37).

[...]

Le volume d'eau prélevé pour l'agriculture est de loin le plus important : globalement, la totalité est répartie comme suit : 69 % pour l'agriculture, 23 % pour l'industrie et 8 % pour les usages domestiques (IRM 1996a : 306). Par conséquent, c'est en réduisant les quantités utilisées pour l'agriculture que l'on peut faire le plus d'économies. C'est pourquoi de nombreux pays ayant une faible capacité hydrique compensent ce déficit en important une grande quantité de leurs céréales (Postel 1999 : 130). Étant donné qu'une tonne de grain nécessite 1 000 tonnes d'eau, c'est en effet une manière très efficace d'importer de l'eau (Postel 1998 : tableau 1 ; Shuval 1997 : 38). Israël importe environ 87 % de ses céréales, la Jordanie 91 % et l'Arabie Saoudite 50 % (Postel 1999 : 130).

En résumé, plus de 96 % des pays ont actuellement des ressources en eau suffisantes. Sur tous les continents, l'accessibilité à l'eau a augmenté par personne et, dans le même temps, une proportion croissante de gens ont obtenu l'accès à de l'eau potable propre et à l'assainissement. Il est vrai que malgré la plus grande accessibilité de l'eau, on ne peut nier qu'il y a toujours des pénuries fréquentes et des limitations des services de base, tels que l'accès à l'eau potable propre, et que des pénuries locales et régionales existent. Mais ces problèmes sont essentiellement liés non pas à la rareté physique de l'eau, mais à une mauvaise gestion et, finalement, souvent au manque d'argent : argent pour dessaler l'eau de mer ou pour augmenter les importations de céréales, en sauvegardant ainsi les ressources en eau du pays.

p. 256

La situation va-t-elle se dégrader dans les années à venir ?

Les inquiétudes concernant l'approvisionnement en eau sont surtout des craintes de voir les problèmes courants s'aggraver avec le temps. Comme la population croît et que les précipitations restent constantes, il y aura moins d'eau par personne et, suivant le critère de stress hydrique de Falkenmark, plus de pays seront touchés par la pénurie. Sur la figure 85, il est clair que le pourcentage de gens concernés par le stress hydrique passera de 3,7 en 2000 à 8,6 % en 2025 et 17,8 % en 2050.

  Figure 85 — Proportion prospective de la population et sa capacité hydrique maximum en 2000, 2025 et 2050, selon les données variables moyennes de l'ONU pour la population. L'axe de gauche concerne la partie gauche et l'axe droit la partie droite. (Source : IRM l 998a.)

On souligne à juste titre que bien que la croissance démographique suppose, par définition, un stress hydrique plus élevé, « ces projections ne sont ni des prévisions ni des pronostics » (Engelman et Le Roy 1993). En effet, le terme « projections » signifie simplement que si nous n'améliorons pas notre gestion des ressources en eau, celle-ci va se raréfier. Mais il est peu probable que nous ne fassions pas de progrès dans l'utilisation et la distribution. Puisque l'agriculture absorbe la plus grande partie de l'eau, c'est dans ce domaine que se trouvent les meilleures possibilités d'optimisation. On estime que de nombreux réseaux d'irrigation perdent 60 à 80 % du volume qu'ils transportent. (IRM 1996a : 303 ; Falkenmark et Widstrand 1992 : 15.) La mise en oeuvre de l'irrigation par goutte-à-goutte, à l'instar d'Israël, dans des pays aussi divers que l'Inde, la Jordanie, l'Espagne ou les États-Unis, a invariablement permis d'économiser 30 à 70 % du volume et d'augmenter les rendements de 20 à 90 % (Postel 1999 : 174). Plusieurs études ont montré également que dans le domaine de l'industrie, on peut faire des économies de 30 à 90 %, sans coûts supplémentaires (WI 1993 : 34). Même dans le domaine de la distribution d'eau à usage domestique, il est possible de faire de substantielles économies. L'AEE estime qu'en Europe, les taux de fuites varient de 10 % en Autriche et au Danemark, à 28 % au Royaume-Uni et à 33 % dans la République tchèque (AEE 1999 : 160).

Le problème du gaspillage de l'eau est dû au fait que, dans de nombreux pays, elle n'est pas évaluée à son juste prix. La plupart des réseaux d'irrigation sont calculés à partir d'un forfait annuel unique et non en fonction des charges liées à la quantité consommée (Dinar et al. 1997 : 12). Le résultat est que les utilisateurs ne se soucient pas de leur consommation : quand vous avez payé pour faire partie du système, l'eau est gratuite. Aussi, c'est la porte ouverte au gaspillage. C'est une autre illustration de La Tragédie de la vaine pâture telle qu'elle est décrite dans le chapitre sur les pêcheries.

De même, il y a de grands avantages à optimiser l'usage de l'eau des ménages. À Manille, 58 % de toute l'eau en circulation sont perdus au cours de la distribution ou volés ; en Amérique latine, le chiffre est d'environ 40 %. En moyenne, les particuliers du tiers-monde ne paient que 35 % du prix réel de l'eau. (Banque mondiale 1992 : 16 ; 1994 : 47.) Naturellement, cela encourage la surconsommation. Nous savons que la facturation et le comptage réduisent la demande et que les consommateurs utilisent moins d'eau s'ils doivent payer chaque unité au lieu de payer un forfait [90]. En fait, il est probable que des prix plus proches du coût réel permettront non seulement d'assurer la fourniture à venir, mais seront un facteur d'efficacité sur le plan social. Lorsque l'eau est bon marché ou gratuite pour les agriculteurs, cela cache souvent des subventions substantielles : aux États-Unis, on estime que la subvention en eau accordée aux agriculteurs dépasse 90 %, soit 3,5 milliards de dollars. (Dinar et al. 1997 : 20 ; Cunningham et Saigo 1997 : 431.) Pour les pays en développement, ce chiffre est encore plus important : on estime à 22 milliards de dollars la subvention consentie aux villes et celle accordée à l'agriculture est voisine de 20 à 25 milliards de dollars. (Banque mondiale 1994 : 121-122 ; de Moor 1998 : chapitre 5.)

Ainsi, même si la croissance démographique fait grimper la demande en eau et exerce une pression plus forte sur près de 20 % de la population mondiale, il est probable que l'on trouvera des solutions aux risques de pénurie. Une partie de la solution viendra de la hausse des prix de l'eau qui en limitera les usages inutiles. L'augmentation des importations de céréales apportera un autre élément de réponse à ce problème en libérant une partie de l'eau destinée à l'agriculture pour des secteurs industriels plus rentables ou pour les usages domestiques. Enfin, le dessalement sera une solution de secours permettant la production d'une quantité pratiquement illimitée d'eau potable, à condition qu'on en ait les moyens financiers.

p. 259

Faut-il s'attendre à plus de conflits ?

Le professeur Aaron Wolf a compulsé toutes les archives traitant des crises mondiales et, parmi les 412 conflits répertoriés entre 1918 et 1994, 7 seulement avaient l'eau comme cause, même partielle (Wolf 1999 : 255). Dans trois de ces conflits, pas un seul coup de feu n'a été tiré et aucun n'a été assez violent pour être qualifié de guerre (Wolf 1999). Wolf conclut : « Comme nous le voyons, la véritable histoire des conflits armés pour la défense de l'eau est un peu moins dramatique qu'a pu le laisser supposer la littérature sur le sujet... À notre connaissance, on n'a jamais fait la guerre pour de l'eau. » (Wolf 1999 : 256, original en italique.) Il faut mettre en parallèle l'absence d'exemples de vraies guerres de l'eau et les plus de 3 600 traités sur l'eau signés à l'échelle mondiale entre l'année 805 de notre ère et 1994. Rien qu'au cours du siècle dernier, plus de 149 traités ont été signés (Wolf 1999 : 256-257).

Il y a vraiment de bonnes raisons de penser que ce débat sur une guerre de l'eau est sérieusement exagéré. D'abord, il n'y a simplement pas de raison stratégique de mener une guerre de l'eau. Quel en serait le but ? Seuls les États en aval, forts et possédant motivation et capacité pourraient la faire, mais ils sont dépendants à tout jamais des États en amont qui pollueraient les sources d'eau intentionnellement. Ainsi, une guerre nécessiterait non seulement une démonstration de force, mais aussi une occupation du territoire et un éventuel exode de la population de toute la zone d'alimentation en eau (Wolf 1999 : 259-260). Deuxièmement, une telle guerre coûterait beaucoup plus cher que le prix du dessalement. Comme un analyste des Forces armées israéliennes le souligne : « Pourquoi partir en guerre pour de l'eau? Pour le prix d'une semaine de combats, on peut construire cinq unités de dessalement. Pas de morts, ni de pression internationale et une source d'approvisionnement qui n'est pas en territoire ennemi. » (Cité dans Wolf 1999 : 261.) [...]

p. 260

Conclusion

Le battage médiatique autour de la question de l'eau est extraordinaire, et on pourrait le résumer par le titre dramatique d'un article paru en 1995 : « La crise mondiale de l'eau : le problème majeur du XXIe siècle, un problème croissant et explosif » (Saejs et Van Berkel 1995.) Toutefois, les faits ne corroborent pas cette vision apocalyptique du problème. Nos puits ne sont pas à sec ; nous n'avons pas à faire face à d'insurmontables pénuries. Les défis dans ce domaine mettent plutôt en évidence le fait que l'eau doit être gérée avec plus de prudence, que son prix doit être réaliste, et qu'il faut accepter l'idée d'une absence d'autonomie alimentaire pour les pays des zones arides.

C'est aussi la conclusion de tous les rapports importants sur la question. En 1997, l'ONU a publié sa dernière Évaluation exhaustive des ressources en eau douce de la planète. Dans la préface, on lit que l'augmentation du stress hydrique est « en grande partie le résultat d'une mauvaise répartition de l'eau, d'une utilisation abusive de cette ressource et de l'absence d'une gestion adéquate ». (CSD 1997 : 1.)

9. Pollution de l'air et de l'eau

p. 285

Pollution atmosphérique

Dans une mise à jour de 1999 effectuée sur 39 études d'analyses des risques comparatifs aux niveaux régional, national et local, c'est la pollution atmosphérique qui revient invariablement comme le principal problème pour la santé (Konisky 1999 : 21).

Sur la pollution atmosphérique au plomb, on dispose de documents remontant à 6 000 ans, qui prouvent qu'elle atteignait déjà ses premières pointes au temps des Grecs et des Romains. En 500 av. J.-C., le contenu en plomb au-dessus du Groenland était quatre fois supérieur à ce qu'il était avant que les civilisations européennes ne commencent à fondre les métaux. (Mesures effectuées dans des carottes de glace (Weiss et al. 1999 : 264).) Dans la Rome antique, l'homme d'État Sénèque se plaignait de « l'odeur, la suie et la lourdeur de l'air » dans la cité (Miller 1998 : 466).

En 1257, lorsque la reine d'Angleterre se rendit à Nottingham, elle trouva la puanteur de la fumée émise par le charbon en combustion si intolérable qu'elle craignit pour ses jours et décida de partir (Brimblecombe 1977 : 1158 ; Elsom 1995 : 476). En 1285, l'air de Londres était à ce point pollué que le roi Édouard 1er réunit la première commission du monde sur la pollution et, 22 ans plus tard, il proclama une loi interdisant de faire brûler le charbon, loi qui ne fut cependant pas mise en application. (Brimblecombe 1987 : 9. Un Londonien fut bel et bien exécuté pour avoir fait brûler du charbon peu après l'année 1300 (Baumol et Oates 1995 : 447).)

Dès le XIVe siècle, il y eut des tentatives pour éviter que ne soient jetés dans la Tamise et dans les rues de la ville les déchets qui provoquaient des odeurs nauséabondes [91], mais sans succès. En 1661, John Evelyn pouvait encore affirmer que « la majorité des Londoniens ne respirent qu'un épais brouillard impur, accompagné d'une dégoûtante vapeur fuligineuse qui corrompt les poumons (Cité dans Elsom 1995 : 476) ». Au XVIIIe siècle, les grandes villes étaient d'une saleté indescriptible. Voici ce qu'en dit [l'historien] Lawrence Stone :

« Les fossés de la cité, alors emplis d'eau stagnante, étaient souvent utilisés comme latrines : les bouchers tuaient des animaux dans leurs échoppes et jetaient les restes des carcasses dans les rues ; des animaux morts en décomposition étaient laissés sur place ; on creusait des trous servant de latrines tout près des puits, contaminant ainsi les réserves d'eau. En se décomposant, les corps des riches, qui se faisaient enterrer dans des tombeaux placés dans les églises, dégageaient des odeurs fétides qui indisposaient le clergé et les fidèles ... (Stone 1979 : 62)»

En 1742, le Dr Johnson décrivait Londres comme une ville « dans laquelle abondent de tels monceaux d'ordures qu'un sauvage s'en étonnerait ». Il y a des preuves qui viennent corroborer le fait qu'effectivement, des excréments humains en grande quantité étaient « déversés dans les rues la nuit au moment où les habitants fermaient leurs maisons ». Ces détritus étaient ensuite répandus sur les routes et dans les fossés, de sorte que les visiteurs qui se rendaient dans la ville ou en sortaient « étaient obligés de se boucher le nez pour échapper à l'odeur répugnante qui s'en dégageait (Stone 1979 : 62-63) ».

La ville était tellement polluée que le poète Shelley écrivait : « L'enfer doit ressembler à Londres, une ville pleine de fumée et de monde ». (Miller 1998 : 466.)

Le premier facteur de pollution était un charbon de mauvaise qualité avec une forte proportion de soufre qui commença à remplacer le bois et le charbon de bois, plus coûteux, pour l'utilisation industrielle au début du XIIIe siècle. En raison de la déforestation des environs de Londres, le bois devenait de plus en plus cher et, à partir du début du XVIIe siècle, les particuliers se mirent à faire brûler de plus en plus de charbon, ce qui provoqua une multiplication par 20 de la consommation au cours des 100 années suivantes. (Brimblecombe 1977 : 1 158 ; Elsom 1995 : 476.)

Vers la fin du XVIIe siècle, la détérioration de la qualité de l'air déclencha de vives protestations. Beaucoup remarquèrent que les bâtiments s'abîmaient et que les structures en fer rouillaient plus rapidement ; on se plaignait aussi du fait qu'il y avait moins d'anémones et que d'autres plantes poussaient moins bien. (Brimblecombe 1977 : 1 158.) Avant même l'achèvement de la restauration de la cathédrale Saint-Paul, l'édifice avait recommencé à se salir. [92] L'épaisse fumée faisait perdre si vite son éclat à la peinture des maisons que certains baux stipulaient qu'on était tenu de repeindre les façades tous les trois ans (Brimblecombe 1977 : 1 162).

Durant des siècles, Londres a été réputé pour son épais brouillard, l'affreux smog londonien. Un contemporain fait remarquer :

« C'est également en raison du smog que l'air de la ville, surtout en hiver, est particulièrement malsain ; car s'il n'y a pas de vent et que le temps est au gel, la ville est recouverte d'un épais brouillard [en français dans le texte], ou nuage, que le soleil d'hiver n'a pas la force de dissiper. Dans ce cas, les citadins, privés de la chaleur et du confort du jour, souffrent d'un froid pénétrant... alors qu'il suffit de quitter la ville et de s'éloigner d'un mile pour trouver un air vif, pur et sain, et d'être réconforté et revivifié par le soleil. » [93]

Les conséquences sont multiples. Alors qu'au XVIIIe siècle, la ville de Londres était dans le brouillard 20 jours par an, cette fréquence était passée à 60 jours par an à la fin du XIXe siècle (Brimblecombe 1977 : 1 159). Ce qui signifie que Londres bénéficiait de 40 % de soleil en moins par rapport aux villes des environs (Elsom 1995 : 480). Quant aux orages, ils avaient également doublé de fréquence à Londres entre le début du XVIIIe et la fin du XIXe siècle (Brimblecombe 1977 : 1 159).

La pollution sévère causa d'immenses pertes en vies humaines, comme nous le verrons plus loin. Déjà, à l'époque, les gens commençaient à se rendre compte qu'il y avait un lien de cause à effet entre la pollution et la maladie. Ce n'est pas une coïncidence si, à l'origine, la bronchite fut baptisée « maladie anglaise (Elsom 1995 : 477) ». Le dernier smog de décembre 1952, particulièrement épais, tua encore 4 000 Londoniens en sept jours seulement (Botkin et Keller 1998 : 466).

Spécialiste de l'environnement, le scientifique anglais Peter Brimblecombe a mis au point un modèle permettant d'élaborer des estimations sur la pollution atmosphérique à Londres en remontant jusqu'en 1585. En s'appuyant sur les importations de charbon, il a estimé par déduction les concentrations de dioxyde de soufre et de fumée (particules ou suie) dans l'air et le résultat, mis à jour et ajusté aux données de calcul des années 20 à nos jours, est représenté sur la figure 86. On y voit que les niveaux de pollution due à la fumée ont considérablement augmenté en 300 ans, depuis 1585, pour culminer à la fin du XIXe siècle, et pour chuter rapidement depuis lors, de sorte que les niveaux des années 1980 et 1990 sont inférieurs à ceux de la fin du XVIe siècle. Nous verrons plus loin que la fumée ou les particules sont de loin les polluants les plus dangereux. En d'autres termes, en ce qui concerne l'air de Londres, il n'a pas été aussi propre qu'aujourd'hui depuis le Moyen Âge.

    Figure 86 — Concentrations moyennes de SO2 (dioxyde de soufre) et de fumée à Londres, de 1585 à 1994-1995. Les données pour la période de 1585 à 1935 sont estimées d'après les importations de charbon et ont été ajustées à la moyenne des données mesurées. Cela nécessite une révision à la hausse des données de Brimblecombe par un facteur de 4 environ. Mais, étant donné que les données du modèle de Brimblecombe sont des moyennes pour Londres dans son ensemble, on doit supposer que le centre de Londres était beaucoup plus pollué, conformément aux mesures réelles (Brimblecombe 1977 : 1 159 ; Elsom 1995 : 477). Il faut également supposer que la baisse vers la fin de la courbe est sans doute légèrement exagérée parce que le modèle prend en compte uniquement le charbon, alors qu'au fil des siècles, bien d'autres sources de pollution sont apparues. Enfin, le modèle a également des difficultés à définir les limites de la zone urbaine (Brimblecombe 1977 : 1 161). Les données de S02 pour la période de 1933 à 1980 viennent de Laxen et Thompson (1987 : 106), et utilisent des concentrations relevées au County Hall de Londres. Remarquons que les données datent de différentes époques et qu'elles utilisent différentes méthodes de mesure.
(Source: Brimblecombe 1977: 1 161, Elsom 1995: 477, QUARG [groupe de surveillance de la qualité de l'air urbain] 1996 : 75, EPAQS [Expert Panel on Air Quality Standards - commission d'expertise sur les standards de la qualité de l'air] l995a : figure 3, Laxen et Thompson 1987 : 106, OCDE l985a : 28, 1987 : 31, 1999 : 57.)

Parallèlement, la figure 86 montre que la teneur en dioxyde de soufre a considérablement augmenté depuis 1585 pour atteindre un palier très élevé (pire que celui des mégapoles actuelles du tiers-monde) de 1700 à 1900, et redescendre ensuite rapidement jusqu'à des niveaux qui, dans les années 1980 et 1990, sont au-dessous des niveaux de la fin du XVIe siècle. En ce qui concerne le dioxyde de soufre également, l'air de Londres n'a jamais été plus propre qu'aujourd'hui depuis le Moyen Âge. Encore une fois la pollution atmosphérique n'est pas un nouveau problème qui empire, mais un vieux problème qui s'améliore.

p. 288

Qyels sont les produits dangereux ?

Il existe de nombreuses formes de pollution atmosphérique, mais les six principales sont :
       — Les particules (fumée et suie)
       — Le dioxyde de soufre (SO2)
       — L'ozone (O3)
       — Le plomb
       — Les oxydes d'azote (NO et NO2, regroupés sous l'appellation NOx), et
       — Le monoxyde de carbone (CO).

    Figure 87 — Coût moyen des PM10 (fumée de particules de petite taille), plomb, SO2 et ozone au niveau de pollution américain mesuré, de 1977 à 1999, exprimés en coût annuel par personne en dollars américains de 2000. En extrapolant les estimations de coût dans le passé jusqu'à 1960, en utilisant les émissions de plomb, on arrive à un coût total de 4 000 à 4 500 dollars par personne dans les années 60. Remarquez que les estimations économiques sont incertaines, et ne devraient être considérées que comme des estimations grossières.
(Source : EPA l997b : 88, 2000 : 119, 2000e : 119, 2000f : 4, CPI 2001, Krupnick et Burtraw 1996 : 46-48, Burtraw et Krupnick 1996 : 462-463.)

Cette courbe exige plusieurs estimations. Étant donné que le PM10 n'a pas été mesuré de manière systématique avant 1988 aux États-Unis, le chiffre de 1982 est une estimation du TSP qui est généralement 50 % au-dessus (comparaison de données ; communication personnelle avec Kåre Kemp, Institut national danois de recherche sur l'environnement, 10 juin 98). Étant donné que l'ozone est mesuré en tant que quatrième plus grande valeur quotidienne calculée sur une moyenne de huit heures, la moyenne annuelle a été déterminée à partir de toutes les unités d'échantillonnage avec un taux d'échantillonnage supérieur à 90 % à partir de EPA 2000b pour les années d'échantillon et estimée pour le reste. La concentration en plomb mesurée est prise comme moyenne annuelle, bien que ce soit la moyenne maximale trimestrielle.

La figure 87 montre le coût annuel total par personne de la pollution, et de 1977 à 1999 aux États-Unis. Les effets nocifs des NOx et du monoxyde de carbone n'ont pas été calculés, mais ils sont probablement moins importants que ceux du SO2 ou de l'ozone. [94] Le gouvernement britannique a réalisé, dans plusieurs publications, des estimations des coûts totaux de la pollution au Royaume-Uni, qui sont à peu près semblables. [95]

La figure 87 indique, premièrement, que les problèmes sont globalement moins graves maintenant qu'il y a exactement 22 ans. Les coûts moyens de la pollution atmosphérique ont baissé de deux tiers environ, passant de 3 600 à 1 300 dollars. Si on remonte encore jusqu'aux années 60, en s'appuyant sur les émissions de plomb pour évaluer la charge de la pollution par cette substance, les coûts semblent s'élever à environ 4 000 à 4 500 dollars, ce qui donne une baisse de 70 % de la pollution atmosphérique en 39 ans. [96] Les coûts des polluants atmosphériques individuels ont également diminué au cours des 22 dernières années, de 27 % pour l'ozone, de 40 % pour les particules, de 60 % pour le SO2 et de 97 % pour le plomb. Deuxièmement, il y a une différence considérable entre les substances pour ce qui concerne les menaces qu'elles font peser sur la santé. Le plus grave problème de pollution atmosphérique est certainement dû aux particules, qui entrent pour 82 % dans les coûts actuels. Dans les années 70, le plomb, qui représentait quelque 40 % des coûts totaux, posait également un grave problème.

Il y a bien sûr de nombreuses autres substances que nous pourrions également étudier, telles que les composés organiques volatils (VOCs), les dioxines et les métaux lourds, mais, d'une part, nous disposons de beaucoup moins de données sur ces dernières et, d'autre part, ils représentent sans doute un danger moindre pour les êtres humains. [97]

L'EPA a commencé à surveiller de nombreux polluants toxiques tels que le benzène, le formaldéhyde et le styrène. C'est dans les zones urbaines que l'on trouve les plus fortes concentrations de ces polluants (EPA 2000e : 73). Dans ces zones, au cours de la période de 1993 à 1998 (laps de temps bref, malheureusement, mais qui est le plus long dont on dispose), « les résultats révèlent généralement des tendances à la baisse pour la plupart des polluants dangereux de l'air (HAP [hydrocarbures aromatiques polycycliques]) surveillés ». (EPA 2000e : 78.) En général, pour un poste d'observation des polluants atmosphériques toxiques montrant une tendance à la hausse statistiquement valable, plus de six autres montraient des tendances à la baisse statistiquement valables. (EPA 2000e : 77.) C'est l'État de Californie qui a le plus ancien et le plus vaste programme sur les toxines atmosphériques et, sur les six polluants majeurs étudiés par l'EPA, tous ont connu des baisses de 35 à 70 %. (EPA 2000e : 85.) Pour le Royaume-Uni, les mesures de six teneurs en métaux dans l'air de Londres entre 1976 et 1993 montrent toutes une baisse, allant de 50 % de réduction pour le chrome et le cuivre, 66 % pour le cadmium et le zinc, 75 % pour le nickel jusqu'à 87 % pour le plomb. (UK EA 2000.)

p. 306

Conclusion sur la pollution de l'air

La nette régression de concentration des principaux polluants atmosphériques dans le monde occidental, que l'on a constatée dans ce chapitre, est étonnante en soi. Mais le plus surprenant, c'est que cela s'est produit alors que l'économie et les pollueurs en puissance étaient en forte augmentation : aux États-Unis, le nombre total de kilomètres effectués en voiture a plus que doublé en trente ans. L'économie, également, et la population ont augmenté de plus d'un tiers (EPA 1998c : 9). Néanmoins, au cours de la même période, les émissions ont régressé d'un tiers et les concentrations bien davantage encore (EPA 1998c : 9). De même, en 1987, 102 millions de personnes vivaient dans des zones où un polluant au moins était au-dessus de la norme établie par le National Ambient Air Quality. En 1996, le nombre était de 47 millions (CEQ 1997 : 292). C'est pourquoi on peut être optimiste quant au défi que représente la pollution atmosphérique ; puisqu'elle a été combattue dans le monde développé, il y a de bonnes raisons de croire que le monde en voie de développement, suivant notre schéma, va lui aussi, à long terme, réduire sa pollution atmosphérique.

Comme l'a souligné la Banque mondiale, croissance et environnement ne sont pas contradictoires, mais complémentaires. Sans protection adéquate de l'environnement, la croissance sera ébranlée ; mais sans croissance, il n'est pas possible de financer la protection de l'environnement. La Banque mondiale souligne : « La solution n'est pas de produire moins, mais de produire différemment » (Banque mondiale 1992 : 25). C'est précisément ce qu'a permis la nouvelle technologie dans le monde développé. Et c'est ce qu'elle est en train de faire dans le monde en voie de développement.

p. 322

Pollution de l'eau

Environ 71 % de la Terre sont recouverts par l'eau salée des océans. Les lacs constituent à peine 0,5 % de la surface de la planète. La moitié d'entre eux sont des lacs d'eau douce ; quant aux cours d'eau, ils ne représentent que 0,2 % de la superficie des lacs d'eau douce (Shiklomanov, 1993 : 12).

De toute évidence, les eaux côtières, les rivières et les lacs sont bien plus importants pour la population que les océans — essentiellement, à cause de leur plus grande proximité — mais il n'empêche que les océans sont immenses par rapport aux masses d'eau qui nous sont familières.

p. 342

Pollution des cours d'eau

Au niveau mondial, les rivières jouent un rôle majeur en fournissant l'eau pour la consommation, l'hygiène personnelle, l'industrie et l'agriculture (Shiklomanov 1993 : 15,18). Dans la mesure où l'eau est destinée à être bue, il est absolument indispensable qu'elle ne contienne pas trop de bactéries coliformes, qui révèleraient la présence d'autres bactéries et virus plus dangereux.

Figure 109 — Bactéries coliformes fécales présentes dans les rivières pour différents niveaux de revenus par habitant, en 1979 et 1986. (Source : Banque mondiale 1992, Shafik 1994 : 764.)

Sur une base de données concernant 52 cours d'eau dans 25 pays, la Banque mondiale a démontré une corrélation plus complexe entre le revenu et les bactéries fécales coliformes, comme le montre la figure 109. Rien d'étonnant si, comme pour la pollution de l'air, la pollution fécale augmente jusqu'à un niveau de revenus d'environ 1 375 dollars, seuil à partir duquel les rivières deviennent plus propres. Mais, contrairement aux courbes de pollution de l'air, les données semblent indiquer qu'au-delà de 11 500 dollars de revenu, la pollution fécale se met à remonter. Apparemment, ces données ne sont pas fausses : les cours d'eau d'Australie, du Japon et des États-Unis ont des taux assez élevés de coliformes. [98] L'explication tend à prouver qu'il y aurait une tendance à la baisse de la pollution fécale tant que les gens sont dépendants de l'eau de rivière. En revanche, lorsque les pays sont assez riches, ils utilisent les eaux souterraines de façon extensive, ce qui diminue la nécessité politique de faire baisser les niveaux de pollution. Cependant, pour la grande majorité des pays qui dépendent des rivières pour l'eau potable, la conclusion reste la même : au début, la pollution des rivières augmente parallèlement aux revenus, mais redescend au-delà d'un certain seuil.

D'un point de vue biologique, cependant, le niveau d'oxygène est un critère de qualité de l'eau bien plus significatif que les coliformes fécaux. L'oxygène dissous est absolument essentiel à la survie des organismes aquatiques, poissons, mais aussi invertébrés tels que crabes, palourdes, zooplancton, etc. De plus, le rôle de l'oxygène dans l'eau est déterminant non seulement sur le plan biochimique, mais aussi esthétique : odeur, limpidité et goût. Par conséquent, l'oxygène est peut-être le plus sûr des indicateurs de qualité de l'eau. (Smith et al. 1993b ; DEP/ 1998/ 5.)

Figure 110 — Niveaux d'oxygène dans la Tamise (1890-1974, axe de droite), le Rhin (1945-1997, axe de gauche) et le port de New York (1910- 1997, axe de gauche). Notons que le taux d'oxygène ne peut être comparé directement entre les fleuves, car de nombreux autres facteurs entrent en ligne de compte. (Source : Goudie 1993 : 224, AEE 1994 : 49, OCDE 1999 : 85, DEP 1997 : 38.) DEP 1998 : 7 parle aussi d'une « hausse régulière » de l'oxygène dissous pour 1998, mais présente une période plus courte qui diffère de DEP 1997 : 38.

Des analyses économiques semblent indiquer que des revenus élevés vont de pair avec l'amélioration des niveaux d'oxygène. [99] C'est aussi ce que montre la figure 110. Ici, nous voyons comment les niveaux d'oxygène de certains grands fleuves sont remontés au plus haut, après être restés très bas pendant des décennies. Les répercussions sur les organismes marins et sur les humains sont réelles. Les niveaux d'oxygène plus élevés de ces fleuves ont amélioré les possibilités de vie : dans le Rhin, la biodiversité a été multipliée par six depuis 1971, et pour la Tamise, le nombre d'espèces de poissons a été multiplié par 20 depuis 1964. (AEE 1999 : 173 ; Gillfillan 1995 : figure 43.) De même, les meilleurs niveaux d'oxygène dans le port de New York autorisent à nouveau la pêche et la baignade (DEP 1998 : 7). Descendu à un niveau très bas au début des années 70, quand la survie des poissons n'y était plus possible, le port de New York compte maintenant des quantités record d'esturgeons à museau court et voit le retour de faucons pèlerins, de hérons, d'aigrettes et probablement des premiers aigles d'Amérique féconds (DEP 1998 : 7 ; 1997 : 55). Ces améliorations se sont produites depuis qu'on a cessé de rejeter des effluents non traités dans le fleuve. À New York, ceux-ci ont diminué de 99,9 % depuis 1930, et à Londres, les rejets ont diminué de 88 % de 1950 à 1980 (DEP 1997 : 11. Gillfillan 1995 : figure 42).

La meilleure qualité de l'eau se confirme aussi pour l'Europe, si l'on considère les niveaux d'oxygène. Ici, les cours d'eau ont été exposés à une pollution croissante depuis la Seconde Guerre mondiale, et souffrent d'un déficit sévère en oxygène : c'est le cas du Rhin, par exemple. Toutefois, durant les 15 ou 20 dernières années, le traitement biologique des effluents domestiques et industriels s'est accru, à tel point que l'AEE a constaté « une amélioration des niveaux d'oxygène et de la qualité des cours d'eau » à l'échelle européenne, qui se traduit par « la bonne oxygénation actuelle de nombreux cours d'eau » (AEE 1995 : 84. 1999 : 172). Pour l'Europe, l'AEE a fait le point sur la pollution organique consommatrice d'oxygène (aux dépens des organismes aquatiques) et indique une détérioration de la qualité pour 27 % des cours d'eau (plus de pollution créant un déficit en oxygène) et une amélioration pour la grande majorité, à savoir 73 % (AEE 1995 : 87, 82).

p. 345

Pollution chimique de l'eau

Jusqu'alors, nous ne nous sommes penchés que sur les indicateurs de pollution les plus typiques, tels les coliformes et l'oxygène. Mais il faut également tenir compte des niveaux de pollution chimique de l'eau. Ici, nous sommes face aux mêmes schémas que pour les zones côtières. Aux États-Unis, un programme national de bio-surveillance des polluants (National Contaminant Biomonitoring Program) a détecté la présence de substances toxiques durables dans l'environnement marin en analysant la chair des poissons. Les poissons ont été choisis parce qu'ils stockent les pesticides, et l'étourneau sansonnet a été retenu à cause de son alimentation variée et de sa présence très répandue géographiquement (NCBP 2000a&b). La figure 112 montre que le taux national américain de DDE (un sous-produit du DDT) a baissé de 82 % entre 1969 et 1986, et durant la même période, les PCB ont chuté de 83 %. La dieldrine, qui n'est pas indiquée, a diminué de 78 %.

  Figure 112 — Niveaux de polluants persistants dans les poissons d'eau douce, aux États-Unis (1969- 1986), et dans les oeufs de goélands argentés des Grands Lacs du Canada et des États-Unis (1974- 1996), indexés à partir de la première année.
(Source : NCBP 2000, CEQ 1997 : 334-338.)
Les données du NCBP sont des moyennes variables sur trois ans. 1987 n'est pas indiqué parce qu'il n'y a que 17 observations sur 3 839. Les données sur les Grands Lacs sont une moyenne des cinq lacs.

La figure 112 montre également la pollution chimique pour les Grands Lacs des États-Unis et du Canada. Ces lacs constituent 20 % de toute la surface d'eau douce de la planète, avec une population américaine et canadienne riveraine de plus de 32 millions d'habitants (Schmitt et Bunck 1995 : 413). Ici, les mesures sont effectuées sur les oeufs de goélands argentés qui sont des indicateurs commodes pour de faibles taux de pollution. [100] Les résultats sont les mêmes : une baisse spectaculaire de 80 à 90 % depuis 1974 des DDE, PBC, HCB et de la dieldrine.[101]

En résumé, la qualité de l'eau des cours d'eau s'améliore sans doute au fur et à mesure que les revenus augmentent. Nous avons effectivement constaté une hausse spectaculaire des niveaux d'oxygène dans le Rhin, la Tamise et le port de New York. Cette tendance vers des niveaux d'oxygène plus élevés a pu être constatée dans plus de 200 cours d'eau européens. En outre, les prélèvements dans les rivières du Royaume-Uni et des États-Unis révèlent une meilleure qualité de l'eau. Les polluants persistants ont diminué de manière spectaculaire dans les eaux douces. Au niveau national, les mesures effectuées sur les poissons aux États-Unis et sur les oeufs de goélands argentés dans la région des Grands Lacs indiquent une baisse des concentrations en polluants de 80 à 90 %.

p. 353

Le fardeau de la pollution s'est allégé

Non, la pollution n'est pas en train de compromettre notre bien-être. Au contraire, le fardeau de la pollution a diminué de manière spectaculaire dans les pays développés. En ce qui concerne la pollution de l'air, l'amélioration est incontestable. La santé humaine a énormément bénéficié des réductions de plomb et de concentration en particules. Contrairement à ce qu'on peut penser, Londres n'a jamais été aussi propre depuis 1585.

En revanche, la pollution de l'air à l'intérieur est restée plus ou moins constante, bien qu'elle dépende plutôt des comportements individuels — plus particulièrement, du tabagisme. La fréquence de l'asthme est en hausse, mais c'est parce que nous avons trop bien calfeutré nos appartements et que nous passons plus de temps à l'intérieur ; elle n'a rien à voir avec la pollution extérieure.

La pollution atmosphérique s'est aggravée dans les pays en voie de développement, principalement à cause de l'extraordinaire croissance économique. Toutefois, ces derniers sont vraiment en train d'effectuer les mêmes choix que ceux qu'ont eu à faire les pays développés il y a 100 à 200 ans. Quand on considère les problèmes sur le long terme, on se rend compte que l'environnement et la prospérité économique ne sont pas incompatibles, mais plutôt complémentaires : sans une protection adéquate de l'environnement, la croissance est compromise, mais la protection de l'environnement n'est pas réalisable sans la croissance. Il est donc raisonnable de penser qu'à mesure que les pays en voie de développement acquerront des niveaux de vie plus élevés, ils vont, comme nous l'avons fait dans les pays industrialisés, choisir d'améliorer leur environnement et se doter des moyens pour y parvenir.

D'un autre côté, de nombreux problèmes environnementaux sont sans objet. Les pluies acides censées avoir détruit les forêts dans les années 80 se sont avérées avoir peu d'impact sur la croissance forestière, bien qu'elles aient endommagé les eaux des lacs vulnérables. Les océans n'ont pas souffert à un degré significatif et ni la guerre du Golfe ni le naufrage de l'Exxon Valdez n'ont causé de dégâts irréversibles.

La qualité des eaux côtières s'est assurément améliorée en terme de bien-être humain. Cependant, de nombreuses zones côtières et maritimes du monde reçoivent des quantités excessives de nutriments qui contribuent à augmenter le déficit en oxygène — ou hypoxie — au détriment de la vie des organismes aquatiques. Ce problème tient principalement à l'accès facile aux fertilisants à l'origine de la Révolution verte, qui nous a donné la possibilité de nourrir la population mondiale à partir d'une surface cultivée beaucoup plus réduite et qui, de ce fait, a permis un allégement spectaculaire de la pression sur les forêts et autres habitats naturels. Dans cette optique, la surcharge en nutriments est le prix que nous faisons payer aux organismes marins pour notre capacité à nourrir l'humanité et préserver les vastes habitats forestiers.

Avec des ressources naturelles suffisantes, nous pouvons certainement réduire le déficit en oxygène, mais il importe de savoir si c'est un usage raisonnable de nos ressources limitées. Dans le golfe du Mexique, nous pouvons diminuer l'hypoxie et sauver des formes de vie benthiques, mais au prix de plus de 2 milliards de dollars par an. Si nous voulons utiliser ces 2 milliards de dollars à bon escient, nous pouvons envisager de sauver la vie de 30 millions d'habitants du tiers-monde.

10. Gestion des déchets

p. 347

Va-t-on manquer de place ?

Devant les ordures qui s'amoncellent, nous nous demandons souvent avec effroi où nous allons bien pouvoir stocker tout ça. Nous voyons que « la société de consommation » avec ses fondements industriels est en train de dégrader notre environnement. C'est peut-être le vice-président américain Al Gore qui exprime le plus clairement cette crainte en disant qu'il s'inquiète du « raz de marée d'ordures déversées par nos villes et nos usines ». « Comme les décharges débordent, les incinérateurs polluent l'air et les communautés et États voisins essaient de rejeter leurs problèmes de surplus d'ordures sur nous », nous réalisons maintenant que nous « manquons de solutions pour nous débarrasser de nos déchets afin qu'ils soient hors de notre vue ou de nos préoccupations » (Gore 1992 : 145). Le problème est que nous avons supposé qu'« il y aurait toujours un trou assez grand et assez profond pour y mettre tous nos déchets. Mais comme tant d'autres suppositions au sujet de la capacité infinie de la Terre à absorber l'impact de la civilisation, celle-là aussi était fausse » (Gore 1992 : 151). De même, Isaac Asimov nous dit dans son livre sur l'environnement que « presque tous les sites d'enfouissement arrivent à saturation et que nous manquons d'espace pour en construire de nouveaux ». [102]

Figure 113 — Rapport entre le revenu et la quantité de déchets produits par habitant, pour 39 pays en 1985. (Source : Banque mondiale 1992, Shafik 1994 : 764.)

Il est vrai que la production de déchets augmente avec le PIB. Plus nous sommes riches, plus nous produisons de déchets. C'est ce que montre la Banque mondiale dans son analyse du rapport entre la production de déchets et le revenu par habitant, sur la figure 113. Cela pose-t-il problème ? Nous pourrions penser que le contrôle de la production des ordures nous échappe et qu'elles vont s'entasser dans les décharges à tel point que bientôt elles déborderont, mais il n'en est rien.

Un expert en traitement des déchets souligne que la réalité est bien différente de ce que l'on redoutait il y a encore une dizaine d'années : « Les images évoquées par les sombres prédictions sur un nombre croissant d'ordures dont on ne saurait que faire ont semé la panique chez les maires et les responsables de travaux publics. On a appris aux enfants que la meilleure façon d'éviter l'invasion des mouettes tournoyant au-dessus des décharges était de laver les bouteilles pour les réutiliser et de stocker les vieux journaux. Mais la crise annoncée n'a pas eu lieu. » (Chertow 1998.)

Chaque Américain produit environ 2 kg d'ordures par jour, soit pour l'ensemble du pays, 200 millions de tonnes de déchets urbains par an (EPA 1999b et 2000c). Non seulement cela paraît énorme, mais la quantité annuelle a doublé depuis 1966, comme on peut le constater sur la figure 114. Pourtant, l'accroissement des déchets qui aboutissent réellement dans les décharges s'est stabilisé depuis les années 1980 et, actuellement, les Américains expédient moins de déchets vers les sites d'enfouissement qu'en 1979. La raison principale de cet état de fait est que les déchets sont incinérés, recyclés ou compostés. De plus, une des raisons pour lesquelles les États-Unis produisent davantage d'ordures est l'accroissement de la population : par personne, la quantité totale des déchets a seulement augmenté de 45 % depuis 1966. Et pour ce qui est des déchets qui aboutissent dans une décharge, chaque personne produit seulement 13 % de plus d'ordures qu'en 1966.

  Figure 114 — Production nationale et individuelle prospective de déchets aux États-Unis pour les décharges, le recyclage et l'incinération, entre 1960 et 2005. Prévisions de 1988. (Source : EPA l99b : 133, USBC 2000d.)

Les données de l'EPA ne remontent qu'à 1960, mais les schémas de consommation ont changé radicalement sur de plus longues périodes. Au début du XXe siècle, un foyer américain produisait chaque jour, en plus des déchets ordinaires, environ 1,8 kg de cendres, ce qui laisse penser que la production des décharges n'a pas beaucoup augmenté en un siècle (Simon 1996 : 277).

Toutefois, il semble probable que les Américains continueront à produire chaque année au moins 110 millions de tonnes d'ordures destinées aux décharges. Notre intuition naturelle, comme le soulignait Al Gore ci-dessus, nous pousse à croire que cela ne peut continuer indéfiniment. Si nous supposons que les États-Unis continuent au même rythme jusqu'à la fin de ce siècle, de 2001 à 2100, quel espace occuperaient ces ordures ? Imaginons que nous les mettions dans une seule décharge — il s'agit d'une simple hypothèse — et que nous la remplissions jusqu'à une hauteur de 30 m, du reste inférieure à celle de la décharge de Fresh Kills sur Staten Island, dans la ville de New York, qui est plus élevée que ça (Simon 1996 : 277). Alors, les déchets des États-Unis pour tout le siècle nécessiteraient une décharge dont la surface serait celle d'un carré de 22 km de côté [103]

Bien sûr, supposer que la production des déchets va progresser de manière stable pendant le siècle prochain semble optimiste et irréaliste. Non seulement la croissance économique fera augmenter la production des déchets (voir figure 113) mais, d'après le Bureau de recensement, la population des États-Unis aura plus que doublé avant 2100 (USBC 2000c).

Donc, supposons que l'accroissement de la production totale de déchets personnels tel que nous l'avons connu depuis 1990 et estimé jusqu'en 2005 restera le même jusqu'en 2100. Ajustons la production de déchets au nombre toujours croissant d'Américains, chacun d'entre eux produisant toujours plus d'ordures. À nouveau, faisons le total de tous les déchets et entassons-les sur une hauteur de 30 m. Nous constaterons que nous n'aurons besoin que d'une surface légèrement plus grande, le tout tiendra dans un carré de moins de 29 km de côté. [104] Sur la figure 115, ce site de stockage est supposé être dans le Woodward County, dans l'Oklahoma. Tous les déchets des Américains pour tout le XXIe siècle seraient contenus dans un seul site, occupant 26 % de la superficie du Woodward County.[105] Ce site ne représenterait que 0,5 % de l'Oklahoma. [106] Il ne représenterait pas plus d'un 12 000e du territoire entier des États-Unis, soit moins de 0,009 010. [107] On pourrait donc imaginer que chaque État stockerait ses propres déchets, disons, pour les besoins de cette démonstration, sur 1/50e de son territoire. Pour gérer toute la production de déchets du XXIe siècle, chaque État devra simplement trouver un espace carré d'environ 4 km de côté. [108]

  Figure 115 — Étendue prospective de la surface de décharge nécessaire pour stocker tous les déchets des États-Unis pendant tout le XXIe siècle : un carré de moins de 18 miles (28 km) de côté. Il est illustré ici dans le Woodward County, Oklahoma, par un carré occupant 26 % de sa surface, soit moins de 0,009 % de la superficie des États-Unis.

En outre, le scénario d'un accroissement continu des déchets est certainement exagéré, surtout si l'on considère que l'essentiel de la croissance économique se fera dans les industries des services et des technologies de l'information, comme nous l'avons vu dans le chapitre sur les matières premières. Même dans le domaine de la production des matériaux, il y a une tendance générale à une moindre utilisation de ceux-ci : une sorte de dématérialisation de l'économie (Wernick et al. 1996). L'automobile est un excellent exemple, représentant un panier plein de produits d'une économie industrialisée, avec des métaux, des plastiques, des composants électroniques, du caoutchouc et du verre. Depuis le début des années 70, l'acier au carbone a été remplacé par de l'acier high-tech, des plastiques et des composites, les nouveaux matériaux remplaçant les anciens à raison de 1 pour 3, produisant une voiture toujours plus légère sans compromettre son intégrité structurelle (Wernick et al. 1996).

Quoi qu'il en soit, rassurons-nous : nous ne serons pas envahis par les ordures. Tout est une question de gestion.

Ce qui ne veut pas dire que les sites d'enfouissement soient faciles à trouver. Personne ne veut habiter près d'une décharge ; un phénomène si courant qu'on lui a même donné un nom : NIMBY, ou Not In My Back Yard (pas dans ma cour) (Rathje et Murphy 1992 : 109). Donc, les problèmes de déchets relèvent d'une question politique, pas d'un problème d'espace.

[...]

De même, si les déchets américains de tout le XXIe siècle pourront être contenus dans une seule décharge dans un coin du Woodward County, dans l'Oklahoma, on peut se demander si le recyclage visant à limiter les déchets est un bon investissement. Il doit sans doute être possible d'économiser plus de ressources naturelles en brûlant de vieux papiers dans des usines d'incinération, en utilisant la chaleur produite et en abattant plus d'arbres, qu'en utilisant de l'énergie pour collecter des vieux papiers à trier, préparer et filtrer. De nouvelles études montrent que recycler du papier revient plus cher que d'en fabriquer du nouveau (Pearce 1997). En effet, les analyses sociétales montrent bien que le recyclage ne paie pas sur un plan économique privé bien qu'il soit mis dans la balance quand toute la société est concernée. [109] On peut considérer cela comme une preuve que le niveau actuel de recyclage est raisonnable, mais qu'il ne faut peut-être pas envisager de le développer davantage. [110]

11. La crainte des produits chimiques

p. 401

Pesticides synthétiques et naturels

Pendant quelques années, le professeur Bruce Ames de l'université de Californie à Berkeley a proposé un point de vue radicalement nouveau concernant la présence ou l'absence de seuil [111]. Bruce Ames est l'un des microbiologistes et chercheurs sur le cancer les plus réputés du monde, qui a inventé et donné son nom à l'un des tests pour le cancer les plus fréquemment utilisés [112]. Son point de vue a récemment reçu l'aval du Conseil national de la recherche (NRC 1996 : 306 et suiv.). Ames n'a cessé de faire observer que nous nous sommes presque exclusivement souciés des pesticides artificiels, alors que nombre d'entre eux sont naturels. On n'y réfléchit jamais, et pourtant, c'est évident : contrairement aux animaux, qui peuvent s'enfuir pour se défendre, les plantes, elles, doivent le faire « sur place », et c'est la raison pour laquelle leur stratégie de survie la plus fréquente au niveau de l'évolution consiste à devenir vénéneuses, et de ce fait non comestibles.

Avec Rachel Carson, les premiers mouvements écologistes se sont concentrés presque exclusivement sur les pesticides fabriqués par l'homme, ce qui a constitué la base de notre peur ou de notre obsession des produits chimiques synthétiques [113]. Carson a fixé l'objectif du mouvement environnemental avec sa fameuse déclaration : « Pour la première fois dans l'histoire du monde, chaque être humain est exposé au contact de substances chimiques dangereuses, depuis l'instant de sa conception jusqu'à sa mort (Carson 1962 : 15). » Ames souligne l'erreur de base : « Cette affirmation est fausse : la grande majorité des produits chimiques auxquels sont exposés les êtres humains sont naturels, et chaque produit est dangereux à partir d'une certaine dose (Ames et Gold 1998 : 212). »

En ce qui concerne les substances chimiques, il ne semble pas y avoir de fondement à la distinction entre pesticides naturels et synthétiques (Rodricks 1992 : 43 ; NRC 1996 : 306, 308 et suiv.). L'arsenic a été employé comme herbicide, et c'est un minéral présent à l'état naturel. L'aflatoxine est le pesticide le plus cancérigène pour l'homme que l'on connaisse. Il existe à l'état naturel dans un champignon qui infecte, entre autres, l'arachide et le maïs (Atkins et Norman 1998 : 260). Le pyrèthre est un insecticide présent à l'état naturel dans une fleur de la famille du chrysanthème, tout comme la nicotine est un pesticide naturel que la plante du tabac utilise pour se protéger (Ritter et al. 1997 : 2021).

Il s'avère donc que l'on consomme beaucoup plus de pesticides naturels que synthétiques. Généralement, les pesticides naturels représentent 5 à 10 % du poids sec d'une plante (Ames et al. 1987 : 272). On estime que, par rapport au poids, on consomme 99,99 % de pesticides naturels et 0,01 % de pesticides de synthèse. (Ailles et al. 1990a ; Gold et al. 1992 : 261 ; Ames et Gold 2000 : 5) On fait souvent référence à ce chiffre de 99,99 %, bien qu'il ne soit pas significatif par lui-même puisqu'il faut également savoir si les pesticides synthétiques sont plus ou moins cancérigènes que les naturels [114].

Ames et plusieurs de ses collègues de Berkeley ont étudié les différents produits que nous mangeons et que nous buvons. Le café, par exemple, contient environ 1 000 produits chimiques, dont seulement 30 ont été testés pour le cancer chez les souris et les rats. Sur les substances testées, 21 ont des propriétés cancérigènes pour les rongeurs.[115]

[...]

Figure 127 — Comparaison des risques de cancer relatifs (HERP[116]) à la consommation journalière américaine moyenne de divers aliments et pesticides synthétiques. La consommation moyenne d'alcool de l'Américain adulte est l'équivalent de 1,7 bière ou un HERP de 3,6 %, soit 36 fois plus que le café. Notez que la consommation de UDMH dû à l'Alar est la moyenne de 1988.
(Source : Ames et Gold 1998 : 214-215, Gold et al. 1992 : 264.)

En considérant la figure 127, on constate que le fait de boire trois tasses de café (moyenne américaine) expose à un risque de cancer d'environ 0,1 %, alors que les 14,9 grammes de salade consommés par l'Américain moyen représentent un risque de 0,04 %, à cause de leur teneur en acide caféique [117]. La consommation moyenne de jus d'orange, à savoir un peu moins d'un verre, représente également un risque de 0,03 % à cause du d-limonène, et celle d'un sixième de champignon, soit 2,55 g, produit un risque de 0,02 % à cause des hydrazines. Ce n'est qu'en analysant la consommation moyenne de pomme, de cannelle, de carotte, de pomme de terre, de céleri, de pain blanc et de noix de muscade que nous en venons au premier pesticide mis en cause : l'éthylène thio-urée de la figure 126.
Figure 126 — Étude sur le rat des propriétés carcinogènes de l'éthylène thio-urée (ETU). Doses quotidiennes (en parts par million) et pourcentage de rats (approx. 70 dans chaque groupe) qui à la fin de l'expérimentation étaient atteints de tumeurs de la thyroïde. La ligne droite noire illustre l'évaluation générale de l'EPA de la corrélation de risques à faibles doses. (Source : Rodricks 1992 : 133, EPA l996c : 117.)
   Le risque provenant de la prise journalière d'ETU est de 0,002 %. C'est l'équivalent du risque de cancer provoqué par l'exposition au DDT d'avant 1972 (année où le DDT a été interdit aux États-Unis) ; aujourd'hui, le risque provoqué par le DDT est d'environ 0,00008 %. Le risque provoqué par la consommation américaine moyenne de jus de pomme avec de l'Alar était en 1988 de 0,001 %, soit moins que le risque causé par l'acide caféique correspondant à la consommation journalière moyenne d'un dixième de poire (Ames et Gold 1998 : 214 ; Gold et al. 1992 : 264). Bien que 79 % seulement des quelque 10 000 pesticides naturels connus aient été testés pour leurs propriétés carcinogènes, étant donné notre consommation, ils font certainement partie des plus dangereux (Ames et Gold 1998 : 214 ; Gold et al. 1992 : 264). La conséquence de ces chiffres est que nombre de nos aliments parfaitement ordinaires ne seraient pas admis en fonction des critères de la réglementation en vigueur pour les produits chimiques de synthèse (Gold et al. 1992 : 264). La quantité de café que nous consommons est environ 50 fois plus cancérigène que la quantité de DDT que nous avalions avant son interdiction, plus de 1 200 fois plus cancérigène que celle à laquelle nous sommes soumis aujourd'hui, et plus de 66 fois plus cancérigène que la consommation actuelle du plus dangereux des pesticides, à savoir l'ETU [118].

[...]

D'après le professeur Ames, il est probable que les tests sur le cancer chez les animaux offrent généralement un tableau trompeur (Ames et al. 1990 ; Ames et Gold 1997). Faire consommer aux animaux des doses extrêmement élevées de substances telles que l'acide caféique, l'estragole ou les pesticides de synthèse peuvent causer la mort cellulaire chronique du seul fait d'une surcharge localisée, au niveau de l'estomac, par exemple [119]. Le cancer apparaît justement à cause de l'utilisation de fortes doses, observation confirmée par le fait qu'environ la moitié de tous les pesticides de synthèse testés se sont avérés carcinogènes, mais qu'il en allait de même pour la moitié des pesticides naturels (Ames et Gold 1997). Si elle était soumise à des tests, une immense proportion de toutes les substances existantes s'avérerait posséder des propriétés carcinogènes. En fait, ce que l'on mesure, c'est la surcharge localisée.

[...]

En d'autres termes, on peut dire que le risque causé par les pesticides de synthèse s'est avéré relativement réduit par rapport au risque déjà imperceptible causé par certains produits sains que nous consommons tels que la salade verte, le jus de fruit, les pommes et le céleri. En fonction du degré de confiance que l'on accorde à l'évaluation maximale de l'EPA, selon laquelle les pesticides de synthèse causeraient 3 000 à 6 000 décès par an, les faits indiquent que les pesticides naturels contenus dans la salade verte, le jus de fruit, les pommes et le céleri font beaucoup plus de morts. Cependant, il est fort probable que les tests sur le cancer effectués sur les animaux ne donnent pas une indication des risques réels, mais des suppositions les plus pessimistes qui soient en intégrant une grande marge de sécurité (Ames et Gold 1998 : 205). Il y a donc de bonnes raisons de penser que les risques de cancer venant des pesticides, qu'ils soient naturels ou synthétiques, sont très faibles.

p. 420

Faut-il avoir recours aux pesticides ?

En 1989, les États-Unis ont connu un boom spectaculaire d'inquiétudes suscitées par les pesticides quand, à la suite d'un sujet traité dans 60 minutes, tout le pays a été pris de panique au sujet du pesticide Alar utilisé sur les pommes. Dénoncé comme étant « le résidu chimique le plus dangereux », il fut ensuite prouvé que le risque avait été largement surévalué et fut révisé à la baisse par un facteur 20 (Marshall 1991 : 20). Comparée à d'autres pesticides de synthèse, l'ingestion moyenne en 1988 était encore 100 fois moins risquée que le fait de boire trois tasses de café par jour, comme on peut le voir sur la figure 127 (Ames et Gold 1998 : 214). Mais le tollé général et l'inquiétude du public mirent un terme à l'utilisation de l'Alar (Marshall 1991 : 20). Cette mesure était-elle juste ? Faut-il interdire d'autres pesticides, ou peut-être tous les pesticides ?

De nombreuses personnes et organisations auraient tendance à répondre oui. Al Meyerhoff, du Natural Resources Defense Council, met en avant l'augmentation du nombre de divers types de cancers, en particulier chez les enfants, et affirme qu'il y a « de plus en plus d'indices prouvant l'existence d'une relation entre l'exposition aux pesticides et l'apparition du cancer chez l'homme (Meyerhoff 1993) ». Les pesticides sont coupables. « L'exposition à ces substances mortelles peut provoquer le cancer, des malformations congénitales et des atteintes neurologiques. » La conclusion ? « Il faut supprimer les pesticides dans les produits alimentaires. »

Des affirmations similaires furent faites à la Conférence mondiale sur le cancer du sein à Ottawa en 1999. Elizabeth May, directeur exécutif du Sierra Club du Canada, soulignait le fait que l'augmentation du nombre de cancers du sein était parallèle et liée à l'augmentation de la présence de pesticides dans l'environnement (Anon. 1999c). Peggy Land, directrice de la campagne contre les pesticides pour le Sierra Club, ajoutait : « Il faut faire passer la santé avant le compte en banque des compagnies qui fabriquent les pesticides et faire valoir notre droit de vivre sans ces poisons (Anon. 1999c). » La solution ? « Il faut un moratoire pour ces substances chimiques toxiques jusqu'à ce que nous puissions prouver leur innocuité par des tests reposant sur des critères améliorés. »

Ces attitudes se retrouvent également dans des enquêtes publiques, où 45 % des Américains estiment que l'utilisation des pesticides n'est pas sans danger, même quand les directives sont correctement appliquées (Dunlap et Beus 1992). De fait, 62 % estiment que « leurs inconvénients pour la santé sont plus importants que leurs avantages (Dunlap et Beus 1992) ».

[...]

Nous ne possédons que des connaissances extrêmement limitées à partir d'études sur les humains, et l'immense majorité de nos évaluations sur les pesticides carcinogènes viennent d'expérimentations effectuées en laboratoire sur des animaux. (NRC 1996 : 303. Voir aussi la base de données de l'EPA 1998b.) Il n'en demeure pas moins que les études montrent que trois tasses de café par jour ou un gramme de basilic présentent plus de 60 fois plus de risques que le pesticide le plus toxique ingéré à des doses courantes. Cela souligne bien le fait que la peur que les pesticides ne donnent le cancer est franchement exagérée, et que l'effet carcinogénique de ces substances est négligeable, même quand l'évaluation provient d'expériences sur les animaux. Une estimation plausible de la mortalité due aux pesticides aux États-Unis est probablement proche d'une vingtaine de décès sur 560 000. Par comparaison, environ 300 Américains se noient chaque année dans leur baignoire (NSC 1999 : 16).

Sachant cela, on pourrait arguer que, même si elle est minime, il existe quand même une augmentation des décès par cancers dus aux pesticides et que la mort d'une seule personne pourrait justifier leur réduction ou leur abandon. Si l'on supposait bien réelle l'augmentation de la mortalité due au cancer par principe de précaution, il conviendrait de renoncer à l'utilisation desdits pesticides dans la mesure, évidemment, où cela n'induirait pas d'autres conséquences plus coûteuses. Le problème que pose ce désir d'éviter ou d'interdire totalement l'usage des pesticides afin d'éviter une minuscule augmentation de la mortalité par cancer est qu'il ne tient pas compte des effets secondaires de cette interdiction beaucoup plus lourds de conséquences.

[...]

Les pesticides contribuent, en effet, à faire baisser les prix des fruits et légumes en améliorant les rendements des cultures. Dans les scénarios danois, un moratoire sur les pesticides réduirait les rendements de 16 à 84 %, ce qui ferait augmenter les prix de 30 à 120 %. (Commission Bichel 1999b : 155 et suiv. ; cf. Knutson et al. 1994 ; Zilberman et al. 1991.) D'abord, ce scénario exigerait plus de surface parce qu'il faudrait cultiver plus de terre, qui serait aussi sans doute moins fertile (Ritter et al. 1997 : 2027). Ensuite, à cause de leur coût, les gens mangeraient moins de fruits et de légumes. Le « budget nourriture » s'élèverait sensiblement. On estime qu'une limitation de l'usage des pesticides ferait augmenter les coûts de 10 % environ ; une interdiction complète ferait doubler la part qu'une famille américaine ou européenne consacre à l'alimentation, qui va aujourd'hui de 8 à 20 % (Zilberman 1991 : 520 ; Ritter et al. 1997 : 2027). On sait que moins les consommateurs ont d'argent à dépenser, moins ils mangent de fruits et légumes [120]. À la place, les familles à faible revenu achèteront plus de produits contenant de l'amidon, plus de viande et consommeront davantage de graisse (Lutz et Smallwood 1995). De surcroît, on peut s'attendre à ce que la qualité des produits alimentaires en pâtisse, et à ce que l'on puisse moins s'en procurer pendant les mois d'hiver (Ritter et al. 1997 : 2 027).

Les conséquences en termes de fréquence du cancer pourraient être substantielles. Le Fonds mondial de la recherche sur le cancer estime que l'augmentation de la consommation des fruits et légumes, en passant de 250 à 400 grammes par jour, réduirait la fréquence totale du cancer d'environ 23 % (Estimation heuristique entre 7 et 31 % (WCRF 1997 : 540)). La moyenne américaine de consommation de fruits et légumes est d'environ 297 grammes par jour (ERS 1998: tableaux 9-2, 9-3). C'est ainsi qu'une diminution de seulement 10 % de la consommation de fruits et légumes aux États-Unis serait la cause d'une augmentation d'environ 4,6 % du nombre total de cancers, soit quelque 26 000 cas supplémentaires[121]. De plus, d'autres études semblent indiquer que les taux de mortalité par maladies non cancéreuses telles que les affections cardiaques ischémiques ou les accidents vasculaires cérébraux subiraient également une importante augmentation (Gillman 1996).

L'étude du Fonds mondial de recherche sur le cancer souligne qu'une augmentation de la consommation de fruits et légumes est absolument vitale pour réduire la fréquence du cancer, mais ne mentionne pas les moyens d'y parvenir (WCRF 1997 : 512 et passim). Cet objectif est confirmé par l'étude du Conseil national de la recherche, mais, une fois encore, elle est centrée sur les aspects médicaux et ne donne pas non plus de solution pour parvenir à l'augmentation de cette consommation 387. La Canadian Cancer Society, quant à elle, souligne la nécessité de prendre en considération à la fois l'économie et la santé avant de prendre des mesures politiques. « Le Comité ne pense pas qu'une augmentation de l'ingestion de résidus de pesticides associée à une augmentation de la consommation de fruits et légumes entraîne un risque accru de cancer : tout risque, aussi infime soit-il, serait largement contrebalancé par les avantages d'un régime de ce type (Ritter et al. 1997 : 2 030). » Parallèlement, « le Comité reconnaît l'importance de l'utilisation des pesticides pour une amélioration de la production agricole et de la qualité des aliments, ainsi que pour son retentissement sur la baisse des coûts des fruits et légumes et l'augmentation concomitante de la consommation, qui ont à leur tour un effet positif sur les risques de cancer (Ritter et al. 1997 : 2 030) ». La respectable revue Science est plus directe :

« Les fruits et légumes sont sujets aux attaques des insectes et des champignons, dont les espèces se comptent par centaines. Si le nombre de fongicides autorisés est réduit et que l'on ne peut plus s'en procurer qu'un petit nombre, les champignons détruiront les récoltes. Si l'on ne trouvait plus de fongicides de synthèse, les spécialistes prévoient que la production de pommes serait réduite de 40 %, de raisins de 33 %, de pêches de 49 % et de fraises de 38 %. Idem pour la production de la plupart des légumes. Les prix augmenteraient. Les personnes à faible revenu en seraient les premières victimes (Abelson 1994). »

Aussi étonnant que cela puisse paraître, le choix est assez clair. En choisissant de supprimer les pesticides de la production agricole, on obtiendra des aliments et de l'eau libres de ces substances. Cela évitera aussi une vingtaine de morts par an. Le coût, en revanche, sera d'environ 20 milliards de dollars ; mais cette nouvelle politique agricole occuperait plus de terres et entraînerait peut-être la mort de 26 000 personnes par an, qui décéderaient de cancer[122].

12. Biodiversité

p. 426

Chaque année, environ 40 000 espèces vivantes disparaissent, soit 109 par jour. Une espèce se sera éteinte avant que vous ayez fini de lire ce chapitre.

C'est ce que disait Norman Myers, il y a 22 ans, dans son livre The Sinking Ark (L'Arche en perdition) paru pour la première fois en 1979 (Myers 1979 : 4-5). Le message fut relayé dans le monde entier par le biais du rapport officiel américain sur l'environnement, intitulé Global 2000 (Lovejoy 1980). Depuis cette époque, cette idée fait partie de notre conscience collective. Al Gore, l'ancien vice-président des États-Unis, a repris le chiffre de 40 000 espèces dans son ouvrage Earth in the Balance (Gore 1992 : 28), le magazine scientifique grand public Discover nous dit que la moitié des espèces que nous connaissons aujourd'hui aura disparu dans 100 ans (Diamond 1990 : 55), et l'éminent biologiste de Harvard, E. O. Wilson, souligne qu'entre 27 000 et 100 000 espèces sont balayées de la surface de la Terre chaque année (Wilson 1992 : 280 ; Regis 1997 : 196 ; Mann 1991 : 737). Pour ne pas être en reste, le professeur Paul Ehrlich a même estimé en 1981 que nous perdions 250 000 espèces par an, et que la moitié de toutes les espèces auraient disparu d'ici à 2000 et la totalité, d'ici à 2010 ou 2025 (Sur la base de 10 millions d'espèces, comme dans Myers. Cité dans Stark 1997 : 62).

Bien que ces thèses d'extinctions massives aient été reprises un peu partout, elles ne correspondent pas du tout à la réalité [123]. L'enjeu est important, car il montre que le pourcentage élevé (de 25 à 100 %) d'extinction des espèces en l'espace d'une vie humaine a suscité l'élan politique nécessaire pour faire de la préservation des espèces une priorité. Cet élan serait sans doute moins fort si on avançait le chiffre beaucoup plus réaliste de 0,7 % sur les 50 prochaines années.

Combien y a-t-il d'espèces sur terre ?

  Figure 130 — Nombre de familles d'animaux marins, d'insectes et de vertébrés quadrupèdes et espèces de plantes terriennes, depuis il y a 600 millions d'années jusqu'à nos jours. (Source : PNUE 1995 : 204, 206 et 207.)

Depuis que la vie est apparue sur terre avec les premières bactéries, il y a 3,5 milliards d'années, l'extinction des espèces fait partie intégrante de l'évolution. Les espèces qui n'ont pu survivre se sont éteintes. L'extinction est l'étape ultime du destin de toute espèce vivante (Botkin et Keller 1998 : 235).

Cependant, le rythme auquel les espèces disparaissent a fluctué au cours des différentes périodes, tandis que le nombre d'espèces n'a cessé d'augmenter jusqu'à aujourd'hui, comme on peut le voir sur la figure 130. Il n'y a jamais eu autant d'espèces que maintenant. La croissance du nombre de familles et d'espèces peut être attribuée à un processus de spécialisation dû à la diversification des caractéristiques physiques de la terre et aussi à la plus grande spécialisation de toutes les autres espèces (PNUE 1995 : 204-205).

Il y a quand même eu plusieurs cas d'extinctions majeures — le plus connu d'entre eux est probablement celui matérialisé par la dernière rupture sur la courbe d'il y a 65 millions d'années quand la plupart des dinosaures ont disparu, mais le plus grave s'est produit il y a 245 millions d'années quand environ la moitié de tous les animaux marins, les vertébrés quadrupèdes et les deux tiers de tous les insectes furent balayés de la surface de la Terre (PNUE 1995 : 208). Ce que nous savons des extinctions passées, qui nous a été transmis par le biais des fossiles, est incertain, mais nous n'avons pas d'autres sources d'information aujourd'hui. Nous ne connaissons pas le nombre exact d'espèces habitant la planète. Les estimations oscillent entre 2 et 80 millions d'espèces. Environ 1,6 million d'espèces ont été identifiées à ce jour, comme on le voit sur le tableau 6. La plupart de ces espèces se trouvent parmi les insectes tels que scarabées, fourmis, mouches et vers, ainsi que parmi les champignons, les bactéries et les virus. Nous avons déjà répertorié la plupart des mammifères et oiseaux — ils sont gros et faciles à identifier. En revanche, notre connaissance des multiples petites créatures ne peut être que fragmentaire et leur description n'intéresse que peu de monde.

  Tableau 6 — Nombre d'espèces et d'extinctions avec documents à l'appui, de l'an 1600 à nos jours. À noter qu'à cause de l'obligation d'étayer ces chiffres, ceux-ci sont sûrement au-dessous de la réalité.
(Source : Baillie et Groombridge 1997 ; Walter et Gillett 1998 ; May et al. 1995 : 11 ; Reid 1992 : 56.)

Les tentatives de dénombrement des espèces ont donné lieu à des méthodes assez ingénieuses. L'écologiste Erwin a eu l'idée de vaporiser d'insecticide la cime d'arbres de la forêt tropicale de manière à compter le nombre d'espèces qui en étaient tombées (Stark 1997 : 50). En comparant le nombre d'espèces identiques retrouvées dans des endroits différents, on peut établir une estimation approximative du nombre de nouvelles espèces au mètre carré. Le résultat peut ensuite être utilisé pour déduire le nombre d'espèces sur de plus grandes surfaces et enfin, sur la totalité de la planète. Les chercheurs ont aussi observé que plus la taille des animaux était grande, plus le nombre d'espèces était petit (il y a très peu d'espèces de la taille des éléphants, mais celles de la taille des scarabées sont légion) (Stark 1997 : 56-58). Les extrapolations d'Erwin et celles du rapport taille/nombre nous donnent des estimations encore approximatives comprises entre 10 et 80 millions d'espèces.

Étant donné les écarts importants entre les différentes estimations, il est plus logique d'exprimer l'extinction des espèces en pourcentage de perte par décennie.

p. 428

La biodiversité est-elle importante ?

À la question quelque peu impertinente : « Y a-t-il une raison quelconque de se soucier de l'extinction des espèces ? » on peut répondre : « Pas une, mais beaucoup de raisons. »

La première est de contribuer au plaisir qu'ont les hommes à vivre sur une planète que la présence d'animaux et de plantes sauvages a rendue vivante et fascinante. Toutefois, les espèces auxquelles nous pensons d'emblée sont plutôt de grande taille comme les tigres, les baleines, les albatros, les poissons-perroquets et les tecks [124], et sûrement pas les millions de scarabées noirs, mouches et spores fongiques. L'argument en faveur de la préservation des espèces est donc assez sélectif.

On attribue souvent à la forêt tropicale le rôle de réserve de plantes médicinales (Ex. : WCED 1987 : 155 et suivantes). Il est vrai qu'autrefois beaucoup de médicaments étaient dérivés des plantes — l'aspirine, des saules pleureurs ; les médicaments pour le coeur, des digitales — alors que maintenant la plupart des médicaments sont des produits synthétiques. Le problème est que la plupart du temps, nous ne savons pas dans quelle direction regarder (Myers 1983). C'est pour cela que l'on étudie la médecine traditionnelle indigène à la recherche de nouvelles pistes. Un bon argument en faveur de la préservation des plantes (si nécessaire, dans des jardins botaniques) qui ont été repérées comme sources potentielles de médicaments. Mais tant que nous n'avons pas les moyens pratiques d'analyser ne serait-ce qu'une partie de ces plantes que nous connaissons déjà, cet argument ne peut jouer en faveur de la protection de toutes les espèces, en particulier celles de la forêt tropicale.

Pimentel et d'autres chercheurs ont essayé d'évaluer la valeur totale de la biodiversité. Si l'on compte les nombreux usages humains de la nature (tourisme écologique, traitement des déchets, pollinisation, cultures, etc.), les valeurs annuelles obtenues sont particulièrement élevées, de l'ordre de 3 à 33 000 milliards de dollars, soit entre 11 et 27 % de l'économie mondiale[125]. Ces valeurs ont été mises en avant pour défendre l'importance de la biodiversité [126]. Bien que ce type d'estimations ait été largement critiqué parce que de nombreux écosystèmes n'ont pas de valeur marchande (voir par exemple, Pearce 1998 ; Pimm 1997 ; Sagoff 1997), le problème majeur en ce qui concerne la biodiversité est que son coût n'est pas celui de tout l'écosystème — personne ne suggère ou ne s'attend à ce que l'on supprime toutes les espèces ou les écosystèmes —, mais celui du dernier scarabée en voie de disparition sur une population d'un million. Ici, de nombreuses analyses montrent que les dernières espèces de plantes ou d'animaux utilisées pour la médecine ont une très faible valeur à nos yeux — surtout parce qu'on a trouvé ce qu'on cherchait bien avant d'en arriver là, ou qu'une recherche systématique parmi toutes les espèces aurait été extrêmement coûteuse[127].

La diversité génétique est essentielle à la survie de nos cultures. Cet argument est fondé, car les cultures vivrières telles que blé, maïs, igname, etc. sont issues de quelques plants à très haut rendement. L'exemple de la rouille striée qui menaçait les récoltes de blé à la fin des années 60 est souvent cité. On vint à bout de cette maladie grâce aux gènes d'un blé sauvage qui pousse en Turquie [128]. Aujourd'hui, nous avons d'immenses banques de semences dans lesquelles de nombreuses variétés sont stockées : aux États-Unis, l'Agricultural Research Service Natianal Small Grains Collection (Collection nationale de petites graines du service de recherche agricole) à Aberdeen, Idaho, détient 43 000 spécimens (De Quattro 1994). Là encore, la question n'est pas de savoir si c'est une bonne idée de conserver l'ensemble des gènes de nos cultures, mais si cela peut être considéré comme un argument valable pour préserver toutes sortes d'autres espèces.

p. 430

Combien d'espèces se sont-elles éteintes ?

Dans l'environnement naturel, les espèces meurent la plupart du temps victimes de la compétition avec d'autres espèces. On estime que plus de 95 % de toutes les espèces qui ont existé sont maintenant éteintes (PNUE 1995 : 202). Une espèce vit en moyenne de 1 à 10 millions d'années (May et al. 1995 : 3). Appliqué au cas de nos 1,6 million d'espèces, il faut compter sur un taux d'extinction naturel de 2 espèces par décennie (Ehrlich et Wilson 1991 : 759). Le tableau 6 montre qu'environ 25 espèces par décennie ont disparu depuis 1600. Il est donc évident qu'il ne s'agit pas juste d'une extinction naturelle. En fait, l'homme est depuis longtemps le principal auteur de ces disparitions. Lors de la dernière ère glaciaire, 33 grandes familles de mammifères et d'oiseaux furent éradiquées — un chiffre extrêmement élevé par rapport aux 13 familles disparues au cours des 1,5 million d'années précédentes (Botkin et Keller 1998 : 235-236). On présume que durant l'Âge de pierre, l'homme a été responsable de l'extinction de ces 33 familles.

Les Polynésiens ont colonisé la plupart des 800 îles du Pacifique dans les 12 000 dernières années. Les oiseaux vivant sur ces îles n'ayant pas connu la civilisation étaient extrêmement vulnérables et ont été exterminés par les chasseurs. À partir des os retrouvés lors de fouilles archéologiques, on a estimé que les Polynésiens avaient éradiqué au total environ 2 000 espèces d'oiseaux, soit plus de 20 % de toutes les espèces courantes (Steadman 1995 ; cf. Goudie 1993 : 115 et suiv.).

L'espèce humaine a donc longtemps été à l'origine de la hausse du taux d'extinction. Mais quand on se penche sur les 400 dernières années, il y a d'autres facteurs à prendre en compte. D'abord, pour avoir des renseignements sur les extinctions, il faut avoir fait des recherches sur les espèces pendant plusieurs années, sur leur lieu d'existence (Diamond 1990 : 56). Une tâche de cette ampleur demande beaucoup de moyens, ce qui réduit à un minimum le nombre de cas d'extinction étayés par des documents. En plus, l'accent est mis sur les mammifères et les oiseaux plutôt que sur les autres espèces et dans les débats sur l'extinction des espèces, ces deux catégories sont les mieux étudiées. Leur taux d'extinction a augmenté ces 150 dernières années, passant d'une espèce tous les quatre ans à une tous les ans (Reid 1992 : 55). Il est possible que cette augmentation soit due en partie au fait que davantage de biologistes professionnels, d'ornithologues et d'amis des bêtes se penchent sur — et traquent — chaque nouveau cas d'extinction, mais, quoi qu'il en soit, la hausse est bien réelle.

Le problème est qu'il y a encore du chemin à parcourir avant de pouvoir expliquer la disparition de 40 000 espèces par an.

p. 431

Pourquoi 40 000 espèces ?

À l'origine, c'est Myers qui, en 1979, a estimé à 40 000 le nombre d'espèces disparaissant chaque année (Myers 1979 : 4-5). Ses arguments sont assez surprenants. Il dit, mais sans preuve, que jusqu'à 1900, la fréquence d'extinction des espèces était d'une tous les 4 ans, et que, depuis cette date, elle est d'une par an. Il cite ensuite une conférence de 1974 qui « avançait l'hypothèse » que le taux d'extinction était alors de 100 espèces par an [129]. Ce chiffre ne concernait pas seulement les mammifères et les oiseaux, mais « toutes les espèces confondues, connues de la science ou pas (Myers 1979 : 4) » et n'était donc pas vraiment plus important. Mais l'essentiel de son argumentation tient dans les lignes suivantes :

« Pourtant, même ce chiffre paraît faible... Supposons que, suite à l'intervention de l'homme (déforestation tropicale), le dernier quart de ce siècle soit témoin de l'élimination de 1 million d'espèces, ce qui est loin d'être invraisemblable, cela se traduirait, sur 25 ans, par une extinction de 40 000 espèces par an, soit de plus de 100 par jour (Myers 1979 : 5). »

Figure 131 — Estimations des taux d'extinction de 1600 à 1974, plus estimation de Myers pour 1980. (Source : Myers 1979 : 5.)

Voilà la théorie de Myers dans son intégralité. Si nous admettons que 1 million d'espèces disparaîtront d'ici à 25 ans, cela équivaut à 40 000 espèces disparues par an. Raisonnement tau-tologique par excellence : 40 000 = 40 000. On se refuse à croire que ce soit là son seul argument, mais son livre ne fournit aucune autre référence ou raisonnement. Si l'on projette qu'il y aura ¼, 1, 100 ou 40 000 espèces disparues (suivant la dernière estimation de Myers) par an, son affirmation tombe à l'eau, car elle est 40 000 fois plus grande que ses propres données, 10 000 fois supérieure au dernier taux observé et 400 fois au taux hypothétique maximum montré sur la figure 131.

Ce chiffre de 40 000 espèces disparues a pourtant été diffusé à des millions de gens dans le monde entier.

p. 433

Qye perdons-nous ?

Cette argumentation a permis de renforcer l'importance de la forêt tropicale aux yeux du monde occidental. Si nous laissons de côté le bref épisode de la forêt tropicale comme « poumon de la Terre » (ce qui est faux, comme nous l'avons vu dans la partie sur les forêts, cf. Broecker 1970.), la biodiversité est maintenant notre raison primordiale de sauver la Terre.

Mais qu'est-ce qui va s'éteindre en réalité ? Bien des gens pensent qu'il s'agit d'éléphants, de baleines grises et d'acajous à grandes feuilles. Mais non, les espèces sont constituées pour plus de 95 % de scarabées, fourmis, mouches, vers microscopiques et champignons, ainsi que de bactéries et de virus (Voir par ex. Stork 1997 : 57). On ne voit pas très bien quel appui politique le lobby en faveur de la sauvegarde de la forêt tropicale aurait pu obtenir si les écologistes avaient souligné le fait que c'était surtout des insectes, des bactéries et des virus qui allaient disparaître [130].

L'essentiel, bien sûr, étant de savoir si entre la déforestation tropicale et la disparition des espèces, il y a un rapport de cause à effet.

Modèles et réalité

La corrélation entre le nombre d'espèces et la superficie a été établie par le biologiste E. O. Wilson dans les années 60 (Par ex. Sirnberloff 1992). Cette théorie intuitive est assez séduisante. Sa logique est la suivante : plus il y a d'espace, plus il y a d'espèces. Elle a pour but d'expliquer le nombre d'espèces sur les îles et fonctionne très bien dans ce contexte. Le postulat de Wilson est le suivant : une réduction de 90 % de l'espace correspond à une diminution de moitié des espèces (Mann 1991 : 737). La théorie pour les îles est-elle applicable à de grands espaces boisés tels que la forêt tropicale ? Telle est la question, car si la taille des îles diminue, on ne peut aller nulle part. En revanche, si la forêt tropicale est amputée d'une partie de sa surface, de nombreux animaux et plantes peuvent se réfugier dans les zones voisines.

Pourquoi ne pas considérer nos propres expériences, celles conduites en Europe et en Amérique du Nord ? Dans ces deux endroits, la forêt primitive a diminué d'environ 98 à 99 %. Aux États-Unis, les forêts situées dans la partie Est ont été réduites en l'espace de deux siècles à des fragments représentant 1 à 2 % de leur espace d'origine, mais cela n'a entraîné la disparition que d'une seule espèce d'oiseau[131].

L'étude la plus importante sur le lien entre la déforestation et l'extinction des espèces a été menée à Porto Rico par Ariel Lugo du ministère de l'Agriculture américain. Il a constaté que, sur une période de 400 ans, 99 % de la forêt primitive avaient disparu. Sur 60 espèces d'oiseaux, 7 « seulement » se sont éteintes, alors que l'île en abrite aujourd'hui pas moins de 97 (Lugo 1988 : 66), ce qui contredit le postulat de Wilson. Le plus surprenant, c'est que malgré la quasi-disparition de la forêt primitive de Porto Rico, il y a davantage d'espèces d'oiseaux qu'auparavant.

Quand on nous dit que la couverture forestière de Porto Rico n'est jamais descendue au-dessous de la barre des 10-15 %, on comprend mieux la situation. Notre erreur est de croire que la déforestation est synonyme d'un rasage pur et simple, après lequel plus rien ne repousse. En fait, les chiffres de la FAO indiquent qu' environ la moitié de la forêt tropicale abattue se transforme en forêt secondaire (Lugo 1988 : 60).

p. 434

La réaction des biologistes

La question de la biodiversité ressemble à la bataille classique entre théorie et réalité. Les biologistes reconnaissent qu'il y a un problème quand on aborde les chiffres. Myers dit que « nous n'avons aucun moyen de connaître le taux d'extinction dans les forêts tropicales, encore moins de le deviner approximativement (Myers 1979 : 43)». Colinvaux admet dans le Scientific American que le taux est « incalculable (Colinvaux 1989: 68)». Pourtant, E. O. Wilson essaie de peser de toute son autorité pour clore la discussion : « Croyez-moi, les espèces sont en voie d'extinction. Nous en éliminons facilement 100 000 par an (Cité dans Mann 1991 : 737). » Ses chiffres sont « absolument indéniables » et fondés sur « des centaines de rapports factuels (Cité dans Mann 1991 : 736)».

Un éminent écologiste admet dans la revue Science que « l'absence de données le gêne vraiment (Cité dans Mann 1991 : 736)». Soucieux des réactions des autres biologistes, il a demandé à garder l'anonymat, car « ils me tueraient pour avoir dit ça », selon ses propres termes. Cette façon de parler est révélatrice du fait que les biologistes savent précisément jusqu'où la bataille des chiffres et des théories doit aller. Il y a de nombreuses subventions à la clé.

De même, Ariel Lugo explique qu'« aucun effort crédible » n'a encore été fait pour définir précisément les hypothèses scientifiques qui sous-tendent le scénario de l'extinction massive (Cité dans Mann 1991 : 736). « Mais, ajoute-t-il, si vous le faites, les gens diront que vous avez signé un pacte avec le diable (Cité dans Mann 1991 : 736). »

Comment vérifier les données

Comme on l'a vu dans le chapitre sur les forêts, environ 86 % de la forêt amazonienne du Brésil sont toujours intacts (Brown et Brown 1992 : 121). Par ailleurs, la forêt atlantique du Brésil a été presque entièrement déboisée au XIXe siècle ; seuls subsistent 12 % de fragments. Selon le postulat de Wilson, la moitié de toutes les espèces devrait avoir disparu. Pourtant, lorsque les zoologistes brésiliens ont analysé la totalité des animaux connus de la forêt atlantique brésilienne, ils « n'ont pu trouver une seule espèce animale connue qui puisse être considérée comme éteinte, en dépit de la réduction importante de leur espace et de la fragmentation de leur habitat[132] ». Et sur une liste annexe de 120 animaux, on ne trouve « aucune espèce disparue (Brown et Brown 1992 : 127) ». De même, on n'a recensé aucune disparition d'espèces de plantes [133]. Les zoologistes affirment « qu'un examen plus approfondi des données corrobore la thèse qu'il y a peu ou pas d'extinction d'espèces à déplorer (bien que la situation de certaines doive être très précaire) dans la forêt atlantique. En effet, un nombre non négligeable d'espèces considérées comme éteintes il y a 20 ans, comprenant plusieurs oiseaux et six papillons, ont été redécouvertes plus récemment (Brown et Brown 1992 : 128)».

[...]

Malgré les prédictions pessimistes de l'UICN, la conclusion est quand même que « les extinctions définitives d'espèces sont rares ». Holdgate souligne dans sa préface le fait que les calculs et les observations ne concordent pas. « Les forêts côtières du Brésil ont été réduites en superficie au même point que toutes les autres forêts tropicales dans le monde. D'après les calculs, cela aurait dû conduire à une perte considérable d'espèces. Pourtant, aucune espèce connue de cette faune ancienne et largement répandue ne peut être considérée comme éteinte (Holdgate 1992 : XVII). »

p. 437

La réponse des biologistes

Malheureusement, lorsqu'on arrive au moment crucial de se prononcer, la majorité des biologistes ne semble pas satisfaite des observations. Wilson continue de dire « croyez-moi ! ». En 1999, Myers a confirmé de nouveau son estimation de 40 000 espèces, nous informant que « nous sommes à l'aube d'un holocauste écologique causé par l'homme », fixant le taux d'extinction dans la forêt tropicale autour de 50 à 150 espèces par jour et en hausse (Myers et Lanting 1999).

Le résumé de l'ouvrage de Western et Pearl, Conservation for the Twenty-First Century, reprend l'affirmation selon laquelle le taux d'extinction serait de 15 à 25 % d'ici à 2000. Ils précisent que « même si on peut remettre en cause les chiffres, leur impact au niveau de la planète est indiscutable (Western et Pearl 1989 : XI) ».

D'après le professeur Ehrlich, nous ne savons absolument pas combien d'espèces disparaissent chaque année. De toute façon, « les biologistes n'ont pas besoin de savoir combien il y a d'espèces, quel rapport il y a entre elles, ni combien disparaissent chaque année pour se rendre compte que l'ensemble des espèces vivant sur terre est en train d'entrer dans une spirale infernale d'extinction (Ehrlich et Ehrlich 1996 : 112-113)». C'est une déclaration pour le moins surprenante. De toute évidence, les scientifiques se croient dispensés de fournir des preuves palpables parce qu'ils sentent qu'ils ont raison. Cette déclaration semble oublier le rôle habituellement dévolu aux scientifiques, qui est d'apporter des preuves objectives permettant à la société de faire des choix en toute connaissance de cause.

Jared Diamond, professeur à l'université de Californie, auteur d'ouvrages connus tels que The Third Chimpanzee et lauréat du prix Pullitzer avec Guns, Germs and Steel, développe effectivement la thèse d'Ehrlich. Il souligne que nous ne pouvons connaître que les espèces familières présentes dans la partie développée du monde (où il n'y a quasiment pas d'extinction). C'est pour cette raison qu'il faudrait inverser les rôles et supposer que toutes les espèces sont éteintes à moins qu'on ne puisse prouver leur existence (Diamond 1989 : 41). « Nous, biologistes, ne devrions pas avoir à prouver aux économistes trop confiants qui encouragent la croissance démographique que le phénomène de l'extinction des espèces est réel. Au contraire, ce sont ces économistes qui devraient financer les recherches dans la jungle pour trouver des preuves corroborant leur thèse improbable d'un monde biologiquement sain (Diamond 1989 : 41). »

Prétendre que, dans un discours scientifique sur l'extinction des espèces, il n'est pas nécessaire de fournir des preuves, est évidemment une aberration. Les biologistes sont sérieux lorsqu'ils disent que les sceptiques devraient aller voir eux-mêmes dans la jungle et effectuer les recherches à leur place, car eux savent déjà que les choses vont mal.

En réalité, bien sûr, ce qu'ils demandent à la société, c'est un chèque en blanc pour empêcher ce qu'ils prétendent être une catastrophe (50 % d'extinction de toutes les espèces sur les 50 prochaines années), mais qui ne repose sur aucun fondement (les observations laissent prévoir une perte de l'ordre de 0,7 % sur les 50 prochaines années).

p. 438

Conclusion :
      Quelles conséquences peut avoir le fait de dramatiser les extinctions ?

Prendre au sérieux les avertissements des biologistes sur l'extinction des espèces a une influence sur nos choix. Nous avons accepté la convention sur la biodiversité, signée en 1992 à Rio, en partie parce que « l'extinction des espèces résultant des activités des hommes se poursuit à un rythme inquiétant ». Cela nous oblige à intégrer la préservation des espèces dans le processus politique national (CBD 1992 : Article 10).

Nous exigeons des pays en développement qu'ils arrêtent de détruire leur forêt tropicale même si nous avons détruit 99 % de la nôtre.

Pourquoi signer la convention sur la biodiversité ? Pourquoi sauver la forêt tropicale ? Pourquoi installer la population du continent nord-américain dans des ilots urbains avec un accès restreint à la nature ? La réponse a toujours été : pour sauver les 40 000 espèces qui disparaissent chaque année.

C'est un argument courant qui fait partie de notre vocabulaire politique. Le rapport Brundtland déclare que, « à long terme, au moins un quart, éventuellement un tiers et même une proportion encore plus grande d'espèces vivant actuellement pourraient disparaître (WCED 1987 : 152) ». Le site Internet très médiatisé Web of Life annonce que 50 000 espèces meurent chaque année. Le Worldwatch Institute nous met en garde : à quoi bon être riches, si « en même temps nous rayons de la surface de la Terre la moitié des espèces animales et végétales (Wl 1999a : 19) » ?

La perte considérable de la biodiversité qu'exprime le chiffre impressionnant de 40 000 espèces disparues par an est un résultat des modèles. Il a tellement été répété partout avec une telle constance que finalement tout le monde y croit ; il est devenu le leitmotiv de notre litanie sur l'environnement. Mais c'est aussi un chiffre en contradiction avec les faits réels et les théories prudentes.

Bien sûr, une extinction des espèces de l'ordre de 25 à 100 % serait catastrophique, quels que soient les critères. En revanche, une perte de 0,7 % sur une période de 50 ans n'est pas une catastrophe, mais l'un des nombreux problèmes qu'il nous reste encore à résoudre. Il est important de prendre conscience de cet état de fait, si nous voulons faire des choix judicieux pour tirer le meilleur parti de nos ressources limitées.

13. Réchauffement de la planète

p. 440

Depuis les années 90, le changement climatique, et en particulier le réchauffement de la planète est devenu un souci majeur pour beaucoup [134]. Le réchauffement de la planète engendre la crainte que la température mondiale augmente à cause de l'effet de serre.

— Le terme technique utilisé par le GIEC (Groupe intergouvernemental d'experts sur l'évolution du climat) fait allusion à une évolution climatique plus générale imputable à l'activité de l'homme (GIEC 2001a : Glossaire), évolution définie comme tout changement d'état ou toute variabilité climatique. (Note # 482)

Dès que l'on parle de l'environnement, et en dépit de tous les indicateurs susceptibles de montrer une amélioration, on conclut en disant qu'il est impératif de changer nos habitudes, parce que notre mode de vie actuel provoque un réchauffement de la planète.

[...] Dans son édition de 2000, le Worldwatch Institute conclut que la stabilisation du climat et la stabilisation de la croissance démographique sont les deux « défis majeurs auxquels doit faire face la civilisation mondiale à l'aube de ce nouveau siècle (W1 2000a : 16). ». De la même façon, le PNUD considère le réchauffement de la planète comme l'une des deux crises qui poussent l'humanité « aux limites de ce que la Terre peut supporter (PNUD 1998b : 4) ». [...]

En conséquence, il va falloir modifier nos industries. Selon le Worldwatch Institute, « la seule solution alternative réalisable est une économie qui s'appuie sur le solaire et l'hydrogène (W12000a : 17) ». Greenpeace déclare également que, même s'il reste beaucoup de pétrole (voir aussi le chapitre 11), le réchauffement nous empêche de l'utiliser : « C'est une deuxième crise mondiale du pétrole. Dans les années 70, le problème était une pénurie de pétrole. Cette fois-ci, le problème est qu'il y en a trop[135]. » La seule solution consiste à opter pour « des choix énergétiques fondamentalement nouveaux, reposant sur une énergie renouvelable propre, éolienne ou solaire (Greenpeace 2000) ».

C'est ainsi que le changement climatique est devenu l'atout environnemental : peut-être ne sommes-nous pas à court de matières premières, peut-être tous les indicateurs objectifs indiquent-ils une amélioration, mais, si le réchauffement de la planète exige un changement de comportement, tous les autres arguments deviennent secondaires. Le Worldwatch lnstitute prévoit réellement qu'au XXIe siècle, « la bataille du climat revêtira l'importance qu'ont eue les guerres — chaudes ou froide — au XXe (WI 1999a : 35). » Soutenu par un grand nombre d'experts qui écrivent dans la revue Nature, le Worldwatch lnstitute affirme que, pour mettre au point les technologies nécessaires à la lutte contre le changement climatique, un monumental effort de recherche sera exigé, mené avec l'urgence du projet Manhattan ou du programme spatial Apollo (WI 1999a : 35 ; Hoffert et al. 1998 : 884).

Ces efforts gigantesques sont justifiés par la conscience générale des conséquences sévères du réchauffement de la planète. Aux yeux de bien des gens, le changement du climat est lié à des augmentations considérables des températures et à des évolutions climatiques catastrophiques. Nous craignons que le réchauffement ne provoque la destruction de nos écosystèmes, une famine généralisée, des cyclones de plus en plus violents, la fonte des calottes glaciaires et la submersion des Maldives, du Bangladesh et d'autres parties du Globe de très faible altitude.

Cela n'a rien d'étonnant, vu la couverture médiatique permanente des catastrophes éventuelles dues à l'effet de serre. On relie presque tous les phénomènes météorologiques au changement climatique. (Voir par ex. Michaels et Balling 2000 : 7-9) Dans l'interview de Bill Clinton par Leonardo DiCaprio en mars 2000, le président répondit que, si l'on ne changeait pas de mode de vie, voici ce qu'il adviendrait :

« Les calottes glaciaires fondront plus rapidement ; le niveau de la mer montera ; il y aura des dangers d'inondation dans des endroits comme les précieux Everglades de Floride ou les champs de canne à sucre de Louisiane ; des pays insulaires seront complètement submergés. Sur l'ensemble des États-Unis, par exemple, on risque à cause du climat de connaître plus de vagues de chaleur, de tempêtes, de phénomènes météorologiques extrêmes en général.
     Et puis, il y aura les conséquences sur la santé. Comme nous le constatons déjà en Afrique par exemple, la malaria se retrouve à des altitudes de plus en plus élevées, là où l'air était autrefois trop frais pour les moustiques.
   Il y aura de multiples phénomènes météorologiques néfastes, dramatiques. Il y aura une mutation dans les schémas de la production agricole, de graves inondations, et davantage de crises sanitaires. »

(DiCaprio 2000, très semblable aux autres déclarations, par ex. Clinton 1999, 2000)

Dans ce chapitre, nous essaierons d'examiner ces funestes prévisions et de prendre en considération les aspects techniques et économiques de ces arguments. Cela nous permettra de faire la distinction entre les hyperboles et les problèmes réels, et de déterminer la meilleure conduite à tenir à l'avenir. Nous acceptons la réalité d'un réchauffement causé par l'homme, mais nous mettons en question la façon dont les scénarios du futur ont été échafaudés et estimons que les pronostics d'un changement de 6 degrés d'ici à la fin du siècle ne sont pas plausibles. [...]

p. 442

L'effet de serre primitif

L'inquiétude majeure en ce qui concerne le changement climatique est le réchauffement de la planète, et celui qui nous occupe aujourd'hui repose sur ce qu'on appelle l'effet de serre. Le principe fondamental de l'effet de serre est très simple et n'est en rien controversé. (Voir par ex. Ross et Blackmore 1996 ; Mahlman 1997 ; Karl et Trenberth 1999.) Plusieurs types de gaz réfléchissent ou « piègent » la chaleur, parmi lesquels on peut compter la vapeur d'eau, le dioxyde de carbone (C02), le méthane (CH4), le gaz hilarant ou protoxyde d'azote (N20), les gaz CFC (chlorofluorocarbures) et l'ozone. On les regroupe sous la dénomination de « gaz à effet de serre » (GES). Dans ce chapitre, nous commencerons par examiner le C02 puisqu'il représente 60 % des gaz additionnels présents, et que l'on suppose que cette proportion va encore augmenter (voir figure 132 499).

Figure 132 — Influence relative des gaz à effet de serre émis par l'homme sur le changement thermique. Le changement total du forçage de 1750 à 1998 est de 2,43 W/m2.
(Source : GIEC 2001a : tableau 6.1.)

Les gaz à effet de serre « piègent » une partie de la chaleur émise par la Terre, un peu comme si on avait mis une couverture autour du Globe. À l'origine, l'effet de serre est une bonne chose : si l'atmosphère ne contenait aucun gaz à effet de serre, la température moyenne du Globe serait inférieure d'environ 33°C à ce qu'elle est, et il est peu probable que la vie aurait pu s'y développer. (GIEC 200la : 1.2.1 ; Ross et Blackmore 1996 : 135 ; GIEC 1996a : 57.)

Figure 133 — Émissions mondiales annuelles de carbone provenant des combustibles fossiles et de la production de ciment, de 1850 à 1999, et concentration en CO2 dans l'atmosphère (ppmv : parts par million par volume), de 1850 à 2000.
(Source : Marland et al. 1999, Ehteridge et al. 1998, Hansen et Sato 2000, Keeling et Whorf 1999, WI 2000b : 67, communication personnelle P. Tans, Climate Monitoring and Diagnostics Laboratory, National Oceanic and Atmospheric Administration, États-Unis.)

Le problème, c'est que l'activité humaine a fait augmenter la quantité de gaz à effet de serre dans l'atmosphère, en particulier le CO2. Environ 80 % proviennent de la combustion du pétrole, du charbon et du gaz, et 20 % de la déforestation et d'autres modifications sous les tropiques. (Pour les années 80, GIEC 1996a : 79. On ne dispose pas encore des chiffres pour les années 90, IPCC 200la : tableau 3.3.) Environ 55 % des rejets de CO2 sont réabsorbés par les océans, par la repousse de la forêt nordique et, d'une manière générale, par la croissance supplémentaire de végétaux (les plantes utilisent le CO2 comme fertilisant) (GIEC 200la : 3.2.2.4, 1996a : 79), mais le reste se retrouve dans l'atmosphère, ce qui fait que la concentration en CO2 a augmenté de 31 % depuis le début de l'ère industrielle (GIEC 200la : 3.1). On peut constater l'augmentation des émissions et de la concentration en CO2 sur la figure 133.

En toute logique, étant donné que les gaz à effet de serre supplémentaires, dont le CO2, renvoient la chaleur, leur présence accrue dans l'atmosphère va entraîner une hausse de la température sur la Terre. C'est ce qu'on appelle l'effet de serre anthropique, effet additionnel dû à l'activité humaine. Et, puisque c'est à cela que nous nous intéressons ici, nous nous contenterons de l'appeler « effet de serre ». L'existence de l'effet de serre anthropique n'est pas non plus controversée.

p. 447

Le climat de 1856 à 2100

  Figure 135 — Température mondiale, de 1856 à 2000, mesurée en écarts par rapport à la moyenne (anomalies) de la période 1961-1990. La température est une moyenne pondérée des températures prises sur terre et à la surface de la mer. La courbe grise indique les mesures annuelles réelles ; la courbe noire montre une moyenne mobile sur 9 ans. Pour obtenir la température mondiale absolue, ajouter 14°C. (Source : Jones et al. 2000, 2001.)

L'évolution des relevés instrumentaux de la température mondiale de 1856 à 2000 est représentée sur la figure 135 [136]. Dans l'ensemble, la température a depuis lors augmenté de 0,4 à 0,8°C (GIEC 2001a : 2.2.2.3). Un examen plus minutieux révèle que l'augmentation de la température au XXe siècle a eu lieu à deux périodes précises, l'une de 1910 à 1945, et l'autre, de 1975 jusqu'à aujourd'hui (Barnett et al. 1999 : 2637, GIEC 200la : 2.2.2.4). Si le second intervalle correspond bien à la préoccupation d'un effet de serre, le premier est plus difficile à superposer avec un rejet par l'homme de gaz à effet de serre étant donné que la concentration et l'augmentation étaient faibles au début du siècle (figure 133 [137] ). Le GIEC indique que la hausse peut s'expliquer en partie par une augmentation naturelle non négligeable de l'irradiation solaire à partir de 1700, qui est d'ailleurs encore très mal évaluée [138].

On se demande évidemment quelle sera l'évolution thermique à venir. En première analyse, cela dépend de la quantité de CO2 et d'autres gaz à effet de serre que nous allons émettre dans l'atmosphère, ce qui implique également une projection des émissions futures de ces gaz.

Le premier rapport du GIEC de 1990 présentait un scénario original dans lequel on ne prendrait aucune mesure — ou presque — pour limiter les émissions de GES, ce qu'on appelle le scénario « business-as-usual » (on ne prend aucune mesure pour changer les choses (GIEC 1990 : XVII-XVIII.)). Les conséquences climatiques de ce scénario pourraient ensuite être confrontées aux conséquences des trois autres scénarios, qui prévoient des degrés différents de contrôle des GES. En 1992, les anciens scénarios furent remis à jour et complétés par de nouvelles suppositions pour refléter l'incertitude importante quant à l'évolution de l'avenir (GIEC 1992 : 75 ; cf. GIEC 1995). Néanmoins, le scénario « business-as-usual » est resté de facto tel quel, et a été baptisé IS92a.

p. 501

Le coût du réchauffement

Si la température mondiale continue à monter au long de ce siècle, elle aura toute une série d'effets, à la fois positifs et négatifs, mais surtout négatifs. Nous avons évoqué ci-dessus certains des plus importants, mais le second volume des rapports de 1996 et de 2001 du GIEC décrit les changements possibles sur plus de 800 pages. La véritable question est de savoir quelle en sera, parmi cette myriade d'incidences isolées, la conséquence globale.

[...]

Le coût annuel total de tous les problèmes soulevés par le réchauffement est estimé à environ 1,5 à 2 % du PIB mondial actuel, c'est-à-dire entre 480 et 640 milliards de dollars[139]. En chiffres absolus, le coût se répartit à parts plus ou moins égales entre les pays industrialisés et les pays en voie de développement, avec environ 280 milliards de dollars chacun [140]. Mais étant donné que le monde développé est environ cinq fois plus riche que le monde en voie de développement, le coût en termes relatifs est inégalement réparti. Le coût pour le monde industriel sera d'environ 1 à 1,5 % de son PIB, alors que les coûts pour le monde en voie de développement représentent environ 2 à 9 % de son PIB [141]. Le rapport 2001 du GIEC n'a pas poussé plus loin ses estimations des coûts. En revanche, il a souligné l'inégalité des coûts du réchauffement. Dans le Résumé à l'intention des décideurs, on soulignait que [142] :

« Les estimations publiées indiquent que les augmentations de la température mondiale moyenne produiraient des pertes économiques nettes dans de nombreux pays en voie de développement pour toutes les magnitudes de réchauffement considérées, et que les pertes seraient d'autant plus importantes que le niveau du réchauffement serait élevé. Dans beaucoup de pays développés, on projette des gains économiques nets pour des augmentations thermiques dans une fourchette approximative de 2 à 3°C, et des pertes nettes pour des augmentations supérieures. La répartition projetée des impacts économiques est telle qu'elle ferait augmenter la disparité entre les pays développés et les pays en voie de développement, disparité qui croîtrait avec des températures plus élevées. Les impacts les plus néfastes estimés pour les pays en voie de développement reflètent en partie leur moins bonne capacité d'adaptation[143]. »

Cette observation nous envoie deux messages. D'une part, le réchauffement climatique coûtera cher, à raison d'un demi-billion de dollars par an ; d'autre part, les pays en voie de développement seront touchés beaucoup plus durement, en partie parce qu'ils sont beaucoup plus pauvres et, par conséquent, ont une moins grande capacité d'adaptation (GIEC 200le : 5.a).

De tels coûts et l'inégalité dans la répartition devraient naturellement nous inciter à envisager un changement de direction. La solution est assez simple. Si l'on veut éviter (une partie de) la hausse de la température liée au réchauffement climatique, il faut réduire les émissions de gaz à effet de serre, en particulier du CO2[144]. Telle était la référence du protocole de Tokyo de décembre 1997, qui fut la première tentative pour parvenir à un accord contraignant sur la réduction des émissions de CO2. Il fut décidé que ce qu'on appelle « les pays de l'Annexe I » (essentiellement les nations industrialisées) devraient réduire leurs émissions totales de CO2 sur la période allant de 2008 à 2012, pour qu'elles atteignent un niveau inférieur de 5,2 % à celles de 1990 [145]. Mais cela ne signifie pas que le réchauffement climatique sera totalement évité, loin de là, en fait, parce que le protocole de Kyoto n'a pas imposé de limites aux pays en voie de développement (Masood 1997 ; Kyoto 1997 ; GIEC 1997b : 19-20). Et on peut voir que les incidences du protocole seront marginales, en admettant même que les plafonds qu'il a fixés soient maintenus indéfiniment, question qui n'a pas été soulevée. Plusieurs modèles ont calculé que sa conséquence sera une hausse de la température en 2100 d'environ 0,15°C de moins que si rien n'avait été fait, comme on peut le voir sur la figure 157. Parallèlement, la réduction permanente des émissions de carbone suite au protocole de Kyoto aura pour effet une élévation du niveau de la mer en 2100 inférieure de 2,5  cm à celle prévue si rien n'avait été fait (Wigley 1998 : 2 288).

  Figure 157 — Hausse attendue de la température avec le scénario « business-as-usual (IS92a) » et avec les restrictions imposées par Kyoto prolongées sans limites. La ligne en pointillé montre que la température pour le scénario « business-as-usual » en 2094 est la même que celle avec Kyoto en 2100 (1,92°C). (Source : Wigley 1998.)

Voici ce que dit Richard Benedick, un des principaux négociateurs des accords de Montréal sur les réductions d'ozone : « Les conséquences de Kyoto auront un impact insignifiant sur le système climatique ». Pareillement, d'après la revue Science, « les spécialistes du climat disent cependant qu'il serait vraiment miraculeux que le pacte conclu à Kyoto... réussisse même faiblement à ralentir l'accumulation des gaz favorisant le réchauffement présent dans l'atmosphère (Science, 19 décembre 1997, 278 : 2 048) ». De fait, en observant la figure 157, on voit clairement que la réduction de température correspond à une faible différence de six années : la température que, sans accord, nous aurions atteinte en 2094 (1,92°C), Kyoto l'a reportée à 2100.

Cela signifie, bien sûr, que Kyoto n'est qu'une première étape. Une semaine après son retour du Japon, le secrétaire danois de l'Environnement écrivait : « La décision prise n'est que la première d'une longue série, nécessaire pour résoudre le problème du réchauffement de la planète... À Kyoto, on a encore souligné que l'évolution ne peut être renversée qu'en faisant des réductions de gaz à effet de serre beaucoup plus considérables (Jyllands-Posten, 19 décembre 1997, section 1, p. 10). »

David Malakoff, de l'université Princeton, ajoutait que la maîtrise du réchauffement « pourrait demander encore 30 "Kyoto" au siècle prochain (Science, 19 décembre 1997, 278 : 2 048) ».

p. 509

Que faut-il donc faire ?

Bien sûr, on pourrait parvenir à un arrêt quasi instantané de l'augmentation du contenu de l'atmosphère en C02, et obtenir ainsi une lente stabilisation du climat, en interdisant immédiatement toute utilisation des combustibles fossiles, mais, ce faisant, le monde se retrouverait pratiquement au point mort. Cela aurait des conséquences incalculables, à la fois économiques, sanitaires et environnementales. On pourrait également choisir de laisser les choses suivre leur cours, en continuant à émettre autant de C02, puis de payer les coûts de l'adaptation de la société en 2100 et après, en construisant des digues, en déplaçant les populations insulaires, en changeant de méthodes agricoles, etc.

Entre ces deux extrêmes, nous avons l'option qui consiste à réduire dans une certaine mesure les émissions de C02 et à accepter une partie du réchauffement climatique. Toute une série de considérations fut émise quant au moment auquel il conviendrait de réaliser ces réductions [146], mais le choix consiste avant tout à décider dans quelle mesure on veut réduire les émissions de C02 et payer maintenant, ou bien dans quelle mesure on est prêt à subir des températures plus élevées à l'avenir. Entre une stabilisation du climat et le « business-as-usual », peut-on trouver une solution qui n'ébranle pas trop la société actuelle, mais qui n'entraîne pas non plus de trop forts coûts climatiques à l'avenir ? [...]

Figure 161À gauche : réduction des émissions de C02 de 1995 à 2105, par rapport au « business-as-usual » ; stabilisation des émissions mondiales aux niveaux de 1990 ; limitation des augmentations thermiques à 2,5°C et réalisation de la meilleure solution du point de vue social. À droite : évolution thermique de 1995 à 2105 pour le « business-as-usual (BAU) » et les autres scénarios, plus Kyoto (avec des échanges possibles entre tous les pays appartenant à l'Annexe I).
(Source : Nordhaus et Boyer 2000 : 7 : 29, 31, 8 : 24.)

Quelles que soient les mesures prises, l'impact sur la température sera léger, comme on peut le voir sur la partie droite de la figure 161. D'une part, parce que le système climatique évolue sur de très longues durées et, d'autre part, parce que, même si nous stabilisons les émissions aux niveaux de 1990, nous propagerons encore de grosses quantités de C02, donc la concentration mondiale augmentera. Au lieu de cela, si nous voulions limiter la hausse de la température à 1,5°C, il faudrait cesser toute émission de carbone en 2035 (Nordhaus 1992a : 1317), ce qui aurait pour résultat la fin de ce monde tel que nous le connaissons.

p. 534

Conclusion :
      Terreurs et mesures judicieuses

La grande leçon du réchauffement de la planète est triple.

1) Premièrement, nous devons savoir sur quoi porte le débat : cherchons-nous à contrôler le réchauffement le plus efficacement possible ou à nous en servir comme tremplin pour d'autres objectifs politiques ? Tant que nous n'aurons pas répondu clairement à nous-mêmes et aux autres, le débat restera trouble. Personnellement, je crois qu'afin de réfléchir clairement, nous devrions nous efforcer de sérier les questions autant que faire se peut, surtout parce qu'en cherchant à résoudre tous les problèmes à la fois, on risque d'adopter de mauvaises solutions pour l'ensemble des domaines concernés. C'est pourquoi je tente ici de ne prendre en compte que le réchauffement.

2) Deuxièmement, nous aurions tort de vouloir dépenser d'énormes sommes d'argent pour réduire une partie infime de l'élévation thermique totale alors que nous pourrions utiliser ces fonds de manière bien plus efficace dans les pays en voie de développement. Cette corrélation entre dépense des ressources pour lutter contre le réchauffement et aide au tiers-monde va, en fait, beaucoup plus loin parce que, comme nous l'avons vu précédemment, c'est cette partie du monde qui souffre le plus du réchauffement, et de loin. Ainsi, lorsque nous dépensons des ressources pour atténuer le réchauffement, nous aidons en grande partie les habitants du monde en développement (c'est le coeur de l'argument de Schelling (1999)). Mais si nous dépensions la même somme d'argent directement dans le tiers-monde, nous aiderions les habitants actuels, et à travers eux leurs descendants. Étant donné que les habitants du tiers-monde seront probablement plus riches à l'avenir et que, comme nous l'avons montré, les rendements des investissements dans les pays en développement sont bien meilleurs que ceux effectués pour le réchauffement, la question qui se pose réellement est la suivante : voulons-nous aider un peu les habitants les plus riches du tiers-monde dans 100 ans, ou aider beaucoup les habitants les plus pauvres du tiers-monde dès maintenant ? Pour donner une idée de l'ampleur du problème, le protocole de Kyoto coûtera vraisemblablement au moins 150 milliards de dollars par an, et sans doute davantage. L'UNICEF estime que 70 à 80 millions de dollars seulement par an permettraient que tous les habitants du tiers-monde aient accès à des services fondamentaux tels que la santé, l'éducation, l'eau et l'assainissement (UNICEF 2000 : 37). Il y a plus important encore : si nous pouvions diriger un tel investissement vers les pays en développement, cela leur permettrait d'avoir une situation bien meilleure dans l'avenir en termes de ressources et d'infrastructures et d'être mieux à même de gérer le réchauffement futur.

3) Troisièmement, nous devrions comprendre que le coût du réchauffement sera considérable, à savoir environ 5 billions de dollars. Étant donné que le prix de la réduction des émissions de C02 augmente rapidement et est facilement contreproductif, nous ferions mieux de diriger nos efforts vers des moyens visant à alléger les émissions de gaz à effet de serre à long terme. Entre autres choses, cela implique que nous investissions beaucoup plus dans la recherche et l'élaboration de l'énergie solaire, de la fusion et d'autres sources énergétiques semblables pour l'avenir. Étant donné que l'investissement américain actuel dans la recherche et l'élaboration des énergies renouvelables n'est que de 200 millions de dollars, une forte augmentation représenterait un investissement prometteur en vue d'une conversion possible à des énergies renouvelables vers la fin du siècle. Cela veut dire également, entre autres, que nous devrions être beaucoup plus ouverts à d'autres solutions de séquestration du C02 (qu'on appelle géomatique). Ces suggestions vont de la fertilisation de l'océan (qui engendrerait un surcroît de carbone venant de la décomposition des algues qui tombent au fond de l'océan quand elles meurent), l'envoi de particules de soufre dans la stratosphère (refroidissement de la Terre) à la capture du C02 venant des énergies fossiles pour les renvoyer et les stocker dans les formations géologiques (Voir NAS 1992 ; Herzog et al. 2000). Encore une fois , si l'une de ces solutions réussissait réellement à atténuer (une partie) des émissions de C02 ou le réchauffement de la planète, cela serait extrêmement satisfaisant pour le monde.

Le message de ce livre

p. 611

Attention au principe de précaution.

Cet ouvrage a montré qu'un grand nombre des croyances ancrées au plus profond de nous-mêmes par la litanie ne correspondaient pas à la réalité. Les conditions de vie sur la planète n'empirent pas. Comme on l'a déjà dit, nous avons plus de temps libre, une plus grande sécurité et moins d'accidents, une meilleure éducation, plus de confort, des revenus plus élevés, moins de famines, plus de nourriture, et des vies plus saines et plus longues. Aucune catastrophe écologique ne nous attend au coin de la rue pour nous punir.

Par conséquent, il faut arrêter de donner une dimension apocalyptique à notre vision de l'environnement. Il est impératif pour nous de considérer l'environnement comme une, et seulement une, partie importante des nombreux défis que nous avons à relever pour créer un monde encore meilleur et continuer à progresser davantage d'ici à la fin de ce siècle.

L'échelle des priorités est essentielle si nous voulons réaliser la meilleure répartition possible des ressources dans la société. L'environnement doit respecter l'échelle des priorités sociales au même titre que les autres secteurs. Les initiatives environnementales doivent présenter des arguments solides et être évaluées sur les bases de leurs avantages et inconvénients, comme on le fait pour les propositions destinées à renforcer le système Medicaid, à augmenter les subventions artistiques ou à diminuer les impôts.

Cependant, il est nécessaire que le principe de précaution soit strictement délimité. Ce principe est garanti par de nombreux traités internationaux comme la Déclaration de Rio de 1992, où il est précisé : « Là où pèsent des menaces de dommages graves ou irréversibles, l'absence de certitude scientifique absolue ne devra en aucun cas être utilisée comme motif pour retarder des mesures rentables destinées à empêcher la dégradation de l'environnement (Cité dans UE 2000c : 26). »

Cette déclaration nous rappelle simplement que puisqu'on ne peut jamais prouver quelque chose de manière absolue, il ne faut pas faire de l'incertitude scientifique une stratégie politique visant à l'inaction dans le domaine de l'environnement. L'exemple le plus évident est le réchauffement de la planète, où l'incertitude scientifique n'est pas en soi un argument qui justifie ou non l'action. Comme nous l'avons vu dans le chapitre sur le réchauffement de la planète, il faut mesurer le degré d'incertitude, son orientation et évaluer plus particulièrement les coûts et bénéfices probables des différents niveaux d'action.

Toutefois, cette conception du principe de précaution est très anglo-saxonne et, en Europe, on utilise plus couramment une interprétation beaucoup plus radicale s'inspirant de la version allemande (dite Vorsorgeprinzip) (Voir Weale 1992 : 79 et suiv.). Ce principe dans son essence suggère de prévoir « une marge de sécurité dans toutes les prises de décision (Lundmark 1997) ». Dans la version danoise, cela devient « accorder à la nature et à l'environnement le bénéfice du doute (DK EPA 1995a)».

C'est un argument assez problématique. Le principe sur lequel il s'appuie, à savoir « mieux vaut prévenir que guérir », semble très sage. Toutefois, cette façon d'aborder les choses ne tient pas compte de l'idée fondamentale de l'étude de Harvard, à savoir que trop de prudence dans certains domaines nous amène à dépenser nos ressources au détriment d'autres secteurs. Sauver quelques vies à un prix très élevé — juste par précaution — peut donc revenir à supprimer la possibilité de sauver de nombreuses vies à un coût moindre dans d'autres secteurs.

On fait souvent observer que, dans le domaine de l'environnement, les défis sont spécifiques sur de nombreux points, par rapport aux autres secteurs (bien illustré dans GIEC 2001c : 10.1.2). Certaines décisions dans le domaine de l'environnement sont irréversibles — lorsqu'on a comblé un marécage ou labouré la lande, cela coûte cher de faire marche arrière (et quelquefois, comme pour la disparition des espèces, c'est impossible). D'autres décisions ont des conséquences à long terme : les déchets nucléaires restent radioactifs pendant des millénaires, affectant les décisions de nombreuses générations futures. Certains processus environnementaux ont des effets déterminants — comme nous l'avons vu plus haut, le réchauffement de la planète aura des effets nombreux et divers, représentant un coût compris entre 1 et 9 % du PIB.

p. 614

Un progrès continu

En 1967, Paul Ehrlich a prédit que le monde allait au-devant d'une famine généralisée. Afin de circonscrire l'étendue de celle-ci, il croyait — assez logiquement, étant donné son point de vue - qu'on devait limiter notre aide aux pays qui avaient une chance de s'en sortir. Selon Ehrlich, l'Inde ne faisait pas partie de ces pays. « [Nous devons] annoncer que nous n'enverrons plus d'aide d'urgence aux pays tels que l'Inde où une analyse sérieuse montre un déséquilibre désespérant entre la production alimentaire et la population... Notre aide insuffisante doit être réservée aux pays qui peuvent survivre (Ehrlich 1967 : 655). » Ehrlich disait en substance que l'Inde devait se débrouiller seule. L'Inde a pourtant, aujourd'hui, connu une révolution verte. En 1967, quand Ehrlich a écrit cela, la ration alimentaire moyenne d'un Indien était de 1 875 calories par jour. En 1998, alors que la population avait presque doublé, cette ration était passée à 2 466 calories par jour (FAO 200la). Si on avait prêté plus d'attention à Paul Ehrlich et moins à Norman Borlaug et à la volonté et l'inspiration incroyables qui ont accompagné la révolution verte, les choses auraient pu être bien pires.

En ce qui concerne le monde occidental, j'espère que ce livre va faire changer les attitudes vis-à-vis des problèmes environnementaux. Nous pouvons oublier notre peur d'un cataclysme imminent. Nous constatons que le monde s'oriente dans la bonne direction et que nous pouvons aider à diriger le processus de développement en nous focalisant — et en insistant — sur une échelle raisonnable des priorités.

Quand nous avons des craintes au sujet de notre environnement, nous sommes victimes de solutions satisfaisantes à court terme qui nous font dépenser de l'argent pour des questions futiles et donc mobilisent des ressources qui pourraient servir à des causes plus justes. Il faut que nous soyons rationnels et prenions des décisions bien réfléchies pour l'utilisation de nos ressources en ce qui concerne l'environnement aquatique, les pesticides et le réchauffement de la planète. Cela ne veut pas dire qu'une gestion rationnelle de l'environnement et des investissements dans l'environnement ne soit pas souvent une bonne idée — seulement, que nous devrions comparer les coûts et les avantages de tels investissements à des investissements similaires dans d'autres secteurs importants de l'activité humaine.

Dans l'ensemble, je crois qu'il est important de souligner qu'être trop optimiste a un prix, mais qu'être trop pessimiste aussi coûte très cher. Si nous ne croyons pas en l'avenir, nous deviendrons plus apathiques, indifférents et timorés — vivant dans notre coquille. Et même si nous choisissons de lutter pour la planète, ce sera sans doute dans le cadre d'un projet résultant non pas d'une analyse raisonnable, mais d'une peur croissante.

[...]

Nous devons trouver des solutions aux problèmes, établir une échelle sensée des priorités et ne pas nous inquiéter pour rien. Soyons assurés que nous laissons en fait le monde dans un meilleur état que celui dans lequel nous l'avons trouvé et c'est le point vraiment remarquable : le sort de l'humanité s'est nettement amélioré dans tous les domaines mesurables majeurs et va probablement continuer à le faire. Réfléchissez un peu. À quelle époque auriez-vous préféré naître ? Beaucoup de gens, toujours sous l'emprise de la litanie, ont dans la tête des images d'enfants grandissant dans un monde en proie à la famine et à la pénurie d'eau, à la pollution, aux pluies acides et au réchauffement de la planète. Mais ces images sont le résultat de nos préjugés et de notre manque d'analyse. Voici donc le message de ce livre : les enfants nés aujourd'hui — dans les pays industrialisés comme dans les pays en voie de développement — vivront plus longtemps et seront en meilleure santé ; ils seront mieux nourris, plus instruits, auront un niveau de vie plus élevé, plus de loisirs et bien plus de possibilités, sans pour autant que l'environnement de la planète soit détruit.

Le monde est vraiment magnifique.

[1] Bjørn Lomborg, L'Écologiste sceptique, Éd. Le Cherche Midi, © 2004.

Pollution atmosphérique, épuisement des ressources naturelles, déforestation : la planète court-elle à sa perte ? Non, répond Bjørn Lomborg. À rebours des discours écologistes alarmistes, ce scientifique danois, statisticien et ancien membre de Greenpeace, clame haut et fort que la planète va mieux. Chiffres à l'appui, il démontre avec précision que, globalement, la qualité de l'air est meilleure et que les habitants des pays en voie de développement meurent moins de faim aujourd'hui qu'hier. Mais attention, affirmer que les choses vont mieux ne veut pas forcément dire qu'elles vont bien...

Événement mondial, L'Écologiste sceptique est un ouvrage iconoclaste et exemplaire pour qui veut connaître le véritable état de la planète, à l'heure où la controverse fait rage au sein d'une partie de la communauté scientifique.

Bjørn Lomborg est professeur associé de statistiques dans le département de sciences politiques de l'université d'Aarhus au Danemark et directeur de l'Institut danois d'évaluation de l'environnement. Traduit dans de nombreux pays, son livre a fait l'objet de différents débats et films. (diffusés en France sur Arte)

[2] Les passages sont titrés selon les 14 thèmes majeurs de l'environnement dans l'ordre du livre, mais ils comportent une numération différente de celle des chapitres.

[3] Jusqu'à 2000, Lester Brown était président du Worldwatch Institute dont il est maintenant président du conseil et premier chercheur.

[4] Naturellement, il existe nombre d'autres articles et rapports sur l'environnement qui sont meilleurs d'un point de vue académique (par ex. les nombreux rapports de l'ONU, de l'IRM [Institut des ressources mondiales] et de l'EPA, ainsi que ceux de la recherche fondamentale auxquels j'ai souvent recours dans ce livre et que l'on trouve dans la bibliographie).

[5] Hertsgaard 2000.

[6] Scott 1994 : 137.

[7] Linden 2000.

[8] New Scientist 2001 : 1.

[9] Le terme de « litanie », ainsi que la description qui suit, est de Régis (1997).

[10] J'entends souvent dire que personne ne fait plus de telles déclarations, mais une description presque identique était la ligne directrice du magazine Time pour sa présentation de l'état de la nature dans son édition spéciale de 2001 :

« Tout au long du siècle dernier, la race humaine a fait tout ce qui était en son pouvoir pour dominer la nature. Nous avons condamné des cours d'eau, abattu des forêts et appauvri les sols. La combustion des énergies fossiles qui avaient mis des millénaires à se former a envoyé dans l'atmosphère des milliards de tonnes de gaz à effet de serre, altéré la composition chimique de l'atmosphère et sensiblement réchauffé la planète en quelques dizaines d'années. Et, tandis que notre population comptait plus de six milliards de personnes en l'an 2000 et continuait à se répandre sur les continents, des dizaines d'espèces de la flore et de la faune s'éteignaient chaque jour, dont le colobus rouge de Miss Waldron, premier primate à disparaître en plus de cent ans.

« Au début du XXIe siècle, certains signes qui ne trompent pas étaient annonciateurs de catastrophes : l'exploitation de la planète atteignait ses limites et la nature allait prendre sa revanche. La glace fondant dans les régions polaires indiquait un rapide changement de climat. La météo était encore plus capricieuse que d'habitude, avec trop de pluie à certains endroits et trop peu à d'autres. Des incendies ravagèrent l'ouest des États-Unis l'été dernier, et de récentes tempêtes dévastatrices s'abattirent sur la planète depuis la Grande-Bretagne jusqu'à Taïwan. On ne pourrait imputer à aucun événement en particulier le réchauffement climatique, mais selon les spécialistes, l'effet de serre provoquera une multiplication et une aggravation des inondations et des sécheresses. Le climat plus chaud a déjà provoqué une augmentation des maladies tropicales telles que la malaria et la fièvre jaune. D'autres signes alarmants émanent d'une planète surchargée : la chute des récoltes de céréales et de la pêche et une lutte plus féroce pour des réserves d'eau qui se raréfient. » Anon. 2001b.

[11] Les déclarations les plus concentrées qui présentent peut-être le meilleur exemple de la litanie viennent du livre Our Anery Earth d'Isaac Asimov et Frederik Pohl (1991 : 9) :

« Il est déjà trop tard pour sauver notre planète. Trop de mal a déjà été fait : les terres cultivées sont devenues désertiques, les forêts ont été abattues et transformées en friches, les lacs ont été empoisonnés et l'air est plein de gaz nocifs. Il est même trop tard pour nous sauver nous-mêmes des effets d'autres processus dangereux, car ils sont déjà déclenchés et se poursuivront fatalement. La température continuera à monter dans le monde entier. La couche d'ozone continuera à se trouer. La pollution affectera ou tuera de plus en plus d'êtres vivants. Toutes ces choses sont déjà allées si loin qu'elles ne peuvent qu'empirer avant de s'améliorer. Le seul choix qui nous reste est de décider jusqu'à quel point nous voulons qu'elles aillent. »

[12] Il est impossible d'examiner tous les domaines importants, mais je crois que ce livre couvre la majorité d'entre eux, et le débat en Scandinavie n'a pas abordé de champs nouveaux significatifs. Les nouvelles suggestions sont cependant toujours les bienvenues.

[13] Cette affirmation ainsi que les suivantes seront étayées par des documents dans les chapitres à venir.

[14] À proprement parler, cela n'est pas vrai parce que de mieux en mieux a une connotation éthique (qu'est-ce que mieux ?), mais ne donne généralement pas lieu à controverse. Par exemple, est-il mieux pour un bébé d'avoir une chance de survie ou non ? La différence entre « est » et « devrait être » présentée ici a ses origines chez David Hume (1740 : 468-9).

[15] WFS 1996 : I tableau 3 ; FAO 1999c : 29.

[16] [Commission mondiale sur l'environnement et le développement (présidée par Mme. Gro Harlem Brundtland), Notre avenir à tous, Les Éditions du Fleuve © 1988. (aussi connu sous le nom Rapport Brundtland)]

[17] L'argument suivant s'appuie sur Simon 1995 : 4 et suiv.

[18] IRM 1996a : 105.

[19] Par ex. Easterlin 2000.

[20] Bien que ce ne soit pas toujours le cas (PNUD 1996a : 5), les simples indicateurs de richesse tels que le PIB par habitant sont, de manière inattendue, souvent étroitement liés aux critères tels que l'espérance de vie, la mortalité infantile et l'illettrisme ainsi qu'aux droits civiques et politiques (Dasgupta et Weale 1992 ; Pritchett et Summers 1996).

[21] PNUD 1998.

[22] Banque mondiale 1998b : Tableau 1.2.

[23] L'ONU a fixé au 12 octobre 1999 cet événement (UNFPA 1999), même s'il est évident que c'est bien trop précis quand on sait que les incertitudes sur le nombre d'habitants d'un pays comme le Nigeria sont toujours de l'ordre de dizaines de millions (Okolo 1999).

[24] La plupart des estimations sont tirées du rapport 2000 de l'ONU sur l'évolution de la population mondiale (PNUD 2001a-c). L'ONU utilise plusieurs hypothèses différentes concernant l'évolution de la fécondité, une optimiste (basse), une pessimiste (haute) et une « entre les deux » (appelée variante moyenne). En accord avec la plupart des ouvrages, je me réfère ici aux chiffres de la variante moyenne.

[25] Chiras 1998 : 131.

[26] À noter que la prospective à long terme (PNUD 1998b) est basée sur la révision de 1996 (PNUD 1998a) qui est comparable à la nouvelle révision de 2000 (PNUD 2001a).

[27] Les chiffres présentés ici concernent la fécondité totale, c'est-à-dire le nombre d'enfants qu'une femme peut mettre au monde durant sa vie si elle suit le modèle courant. Pour une population stable, il faut une fécondité totale d'un peu plus de deux enfants (car certains mourront avant d'avoir eux-mêmes des enfants). Cela est mesuré par le Taux de fécondité total, TFT (Heilig 1996). En 1950 le TFT dans les pays en voie de développement était de 6,16 ; pour la période 1995-2000, il est estimé à 3,00 et pour 2000 à 2005, à 2,80 (PNUD 1999a : I : 12).

[28] Conseiller ONU Peter Adamson, cité dans Miller 1998 : 293.

[29] Par exemple, Berry étal. 1993 : 57 et suiv.

[30] La chute de la fécondité a bien d'autres causes, en particulier la plus grande indépendance des femmes, suite à une meilleure éducation et à une législation plus favorable, qui les fait renoncer à avoir plus d'enfants au profit de leur carrière ou d'une augmentation de leur temps libre. Voir Dasgupta 1995 et Gallagher and Stokes 1996.

[31] De 1,781 million en 1750 (Mitchell 1975 : 23) à 8,910 millions en 2000 (PNUD 1999a : I : 386). Dans une analyse de la fécondité chez les Suédois sur les 250 dernières années, Eckstein (1999 : 164) « a observé que les augmentations des salaires et la baisse de la mortalité infantile étaient pour une grande part responsables de la baisse de la fécondité en Suède ».

[32] De 4,1 millions en 1911 (Mitchell 1995) à 23 millions en 2030 (USBC 2001a).

[33] Le taux de stabilité est légèrement supérieur à 2 enfants par couple, car certains de ces enfants n'auront pas d'enfants eux-mêmes (soit par choix, soit parce qu'ils seront morts avant d'atteindre l'âge d'en avoir).

[34] PNUD 2001a : 2.

[35] TFT pour les pays en voie de développement, PNUD 2001a : 4, pour les États-Unis 3,314 en 1960-65, pour l'Australie 3,27 ; PNUD 1999a : I : 418, 84, et le Danemark avait un TFT de 3,3 en 1920 (Statistiques Danemark 1995 : 8).

[36] PNUD 2001a : 1, 1999a : XI, 10.

[37] La croissance a culminé en 1964 à 2,167 % pour l'ensemble de la planète et à 2,624 % pour les pays en voie de développement (USBG 2000).

[38] Pour l'année 2050, les prévisions sont passées de : 9 833 millions (révision de 1994) à 9 366 millions (révision de 1996), à 8 909 millions (révision de 1998) et maintenant à 9 322 millions (IRM 1996a, IRM 1998a, PNUD 1999a : I : 8, 2001a : 1).

[39] Malheureusement, on a tendance à ne montrer que la progression croissante de la population jusqu'en 2000, donnant l'impression d'un accroissement de la population incontrôlé, par ex. : Gore 1992 : 32-33, Burne : 1999 : 104.

[40] De nouveau, en utilisant la projection à long terme de 1998, qui est fondée sur la révision de 1996, et qui ressemble beaucoup à celle de l'année 2000, PNUD 1998b.

[41] PNUD 2001a : 1, voir Bailey 1995 : 12. USBC 2000.

[42] Par ex. : Porrit 1991 : 116, Time 1997 : 31.

[43] Ehrlich 1968 : 16.

[44] Les numéros 1 sont Hong Kong avec une densité de population de 5 952 habitants au km2 et Singapour avec 4 817. Le premier pays en tant que tel est le Bangladesh avec 832 hab/km2, suivi par l'île Maurice et la Corée, après lesquels viennent la Hollande, qui est n° 6 avec 414, la Belgique n° 8 avec 332, puis n° 9 : le Japon avec 331, n° 10 : l'Inde avec 283. L'Asie du Sud a 242 hab/km2, alors que le Royaume-Uni en a 239, le Danemark 121, l'Ohio 106, et l'Indonésie 101 (Banque mondiale 1997a : tableau 1, USBC 1999a : 29). Bien qu'il ne faille pas y voir de lien de cause à effet, il s'avère qu'une analyse rétroactive de tout l'ensemble des données montre un lien positif et non négatif entre la densité de population et le PIB par habitant.

[45] Bailey 1995 : 15.

[46] Chiras 1998 : 133. Il continue : « Les problèmes sociaux sévissent. La promiscuité dans les centres urbains joue un rôle important dans une quantité de maux sociaux, mentaux et physiques. Beaucoup de psychologues sociaux affirment que le divorce, les maladies mentales, l'abus d'alcool et de drogue et les troubles sociaux résultent en partie du stress créé par le surpeuplement... Les expériences réalisées avec des animaux tendent à étayer la thèse selon laquelle le surpeuplement n'est pas une condition de vie saine. » (Le même argument est défendu par Cunningham et Saigo 1997 : 129-130.) Être soumis au surpeuplement diminue le bien-être psychologique (par ex. Fuller et al. 1996), mais cela ne dépend pas essentiellement du nombre physique de gens dans une ville, mais plutôt de la richesse exprimée en nombre de pièces par personne qui, nous le verrons, a augmenté au fil du temps (figure 38, p. 137). De plus, ces études tendent à mettre systématiquement en évidence les problèmes plutôt que les opportunités de la ville (par ex. : Verheij 1996 : Simon 1996 : 464 : pour un exemple clair, voir FNUAP (Fonds des Nations unies pour les activités en matière de population 1996 : chapitre 2).

[47] Miller 1998 : 313 : « En dépit du chômage, de la misère, du surpeuplement, des dangers de l'environnement et des maladies qui sévissent, la plupart des gens qui vivent dans des "squats" ou dans des bidonvilles sont mieux lotis que les pauvres en zones rurales. » Bien sûr, le sort des nouveaux venus dans les bidonvilles n'est pas comparable à celui de la population rurale moyenne, mais sans doute beaucoup d'entre eux ont quitté la campagne parce que leurs conditions de vie y étaient moins bonnes que la moyenne. Voir par ex. Swar et Kassim 1997 : 1 532 pour un essai partiellement raté.

[48] 89 % des citadins sont approvisionnés en eau potable, par rapport à seulement 62 % des populations rurales, et pour l'assainissement, les chiffres sont de 79 % contre 25 % (UNICEF 2000 : 95 ; voir Banque mondiale 1994 : 6, 27). Pour l'accès moindre aux services d'hygiène dans les zones rurales, voir Banque mondiale 1999c : 26.

[49] Plus des deux tiers des 44 pays étudiés ont montré une différence de plus de dix points en pourcentage (UNICEF 1997 : 39). Pour les villes souffrant le moins de malnutrition, voir Haddad et al. 1999 : 21.

[50] Naylor et Falcon 1995 : 507 ; voir aussi Haddad et al. 1999 : 18.

[51] IRM 1996a: 10, voir The Econmist, 31 décembre 1999 : 27 et suiv.

[52] Preston 1995 : 30 ; Acsadi et Nemeskeri 1970.

[53] La mortalité infantile se situait entre 440 et 600 pour 1 000 naissances viables (Hill 1995 : 38).

[54] Ce chiffre concerne un enfant romain de 1 an : l'espérance de vie d'un nouveau-né était donc encore plus courte. Cependant, comme il n'était pas courant à l'époque dans la Rome antique d'ériger des pierres tombales pour les enfants morts, l'estimation de l'espérance de vie des nouveau-nés est très difficile (Russell 1978 : 45). Ces données concernent les 400 premières années de notre ère (Boddn and KeUer 1998 : 91).

[55] Statistiquement parlant, la peste affectait surtout les jeunes — l'espérance de vie des trentenaires est restée constante à environ 22 années supplémentaires pendant toute cette période (Russel : 1978 : 47, 56). La faible espérance de vie du XIVe siècle est aussi corroborée par les archives tenues avec soin par les moines bénédictins de Canterbury, qui montrent qu'ils vivaient en moyenne 28 ans, bien que leurs conditions de vie fussent bien meilleures que celles du reste de la population. Si nous convertissons cela en espérance de vie pour l'ensemble de la population, nous arrivons à 22 ans à partir de la naissance (pour e20 = 28, e0 = 22 ; Hatcher 1986 : 28, 32). Cette conversion devrait être juste, car bien que mieux nourris et bénéficiant de meilleures conditions d'hygiène et de protection, ils vivaient aussi en vase clos, ce qui peut avoir favorisé la contagion parmi eux.

[56] Pas tellement parce qu'ils étaient propriétaires terriens, puisque le régime et les conditions de vie des classes supérieures n'étaient pas tellement meilleurs que celles des paysans (Russel 1978 : 44), mais parce que c'étaient des hommes — les femmes avaient des vies beaucoup plus courtes étant donné les risques liés à l'accouchement et aux durs travaux des champs (Russel : 1978 : 45).

[57] La différence d'espérance de vie entre l'Angleterre et le pays de Galles et le Royaume-Uni entier est infime (de 0,2 an inférieure pour le Royaume-Uni en 1998, ONS 2000b : 60).

[58] Fogel (1989) précise que seulement 5 à 15 % de la mortalité excessive est due à un manque général de nourriture — la mauvaise distribution est de loin le facteur le plus déterminant rendant difficile l'acheminement de la nourriture depuis les endroits où elle est en surplus vers ceux où elle manque.

[59] Preston 1995 : 31.

[60] Statistiques Danemark 1995.

[61] Le Japon a même atteint 80 ans. (Banque mondiale 1997a : tableau 1).

[62] Preston 1976 : IX.

[63] Keyfitz and Flieger 1990 : 105 ; Banque mondiale 2000a : 233, 2000c.

[64] Espérance de vie en 2000 prise comme moyenne de l'espérance de vie pour la période 1995-2000 et 2000-2005.

[65] 48,3 ans en 1900 (USBC 1975 : I, 55) ; 79,7 ans pour 2000 (USBC 1999a: 93). Pour une personne âgée de 60 ans, la différence est calculée pour une femme de race blanche ayant une espérance de vie supplémentaire de 15,2 ans en 1900 et de 23 ans en 2000 (USBC 1975 : 1, 56, 1999a : 94).

[66] Citations de Stone 1979 : 62-64, 306.

[67] Haines 1995 : 58.

[68] CDC 1999b.

[69] Haines 1995 : 58 ; Porter 1997 : 426.

[70] Fogel 1995 : 66.

[71] Bien qu'à des époques plus lointaines, nous ayons été un peu plus grands et plus proches de la taille actuelle. Pour Londres, la taille des hommes est estimée à 170 cm pendant la préhistoire, 169 cm à l'époque romaine, 173 cm au temps des Saxons, 172 cm au Moyen Âge et pendant les règnes des Tudor et des Stuart, puis elle descend à 171 cm à l'époque géorgienne et à 166 cm à l'époque victorienne pour remonter seulement de nos jours à 175 cm. (Werner 1998 : 108).

[72] La population mondiale est passée de 3 080 millions en 1961 à 6 157 millions en 2001 , soit une hausse de 99,9 % (USBC 2001a).

[73] Indice de production de la FAO, 1961-1999, pour le monde entier : de 49,8 à 118,6 ; pour le tiers-monde : de 40,1 à 135,4. Augmentation par habitant pour le monde entier : de 85,0 à 104,5 ; pour le tiers-monde : de 76,6 à 116,3. L'indice de production est pondéré par les prix et peut donc être variable, en particulier dans les pays en proie à l'inflation où les prix et les habitudes de consommation varient sensiblement dans le temps (IRM 1996a : 246).

[74] FAO 2001a, WI 2000b : 39.

[75] Indice alimentation de la Banque mondiale, FMI 2001a, CPI 2001.

[76] Remarquez que, en partie à cause des mesures problématiques de la pauvreté en Inde, le véritable taux de pauvreté actuel pourrait chuter encore plus vite. (Banque mondiale 200la : 26).

[77] Étant donné que l'estimation de 50 % de la figure 33 s'appuie sur la population mondiale totale et l'estimation de 24 % de la Banque mondiale seulement sur le monde en développement et le monde en transit, l'estimation de la Banque mondiale serait d'environ 20 % de la population mondiale totale, ce qui reviendrait à moins de la moitié des 50 %.

[78] 1,2 milliard de pauvres en 1950 (Barry et al. [1991 : 73] estiment entre 1,178 et 1,297 milliard de pauvres), soit 1,36 milliard de non-pauvres ; 1,2 milliard en 1998, soit 4,72 milliards de non-pauvres, soit une augmentation de 3,36 milliards de non-pauvres.

[79] Les chiffres de la Banque mondiale de 1987-1998 prennent comme critères pour la pauvreté les gens qui ont moins d'un PPP$ 1985 par jour. Le pourcentage est calculé pour les pays en voie de développement et les économies en transition. Les estimations de Barry et al. sont basées sur la consommation (les estimations du PIB donnent à peu près la même évolution, mais sont un peu plus basses). La pauvreté est définie comme moins de 200 dollars de 1970 par an (Barry et al. 1991 : 70). L'estimation pour 1950-1978 comprend presque tous les pays et le pourcentage est pour le monde entier. Pour l'estimation sans les pays socialistes de 1950 à 1986, seul le reste du monde est pris en considération. Pour Hopkins, la définition de la pauvreté n'est pas indiquée, la Chine n'est pas incluse, et le pourcentage semble être celui de la population mondiale sans la Chine.

[80] Ce sont des moyennes pour hommes et femmes confondus (Ausubel et Grübler 1995 : 122). Pour les hommes, les heures de travail sont passées de 150 000 à 88 000 et les heures chômées de 91 000 à 256 000. Pour les femmes, les heures de travail sont passées de 63 000 à 40 000, et les heures chômées de 182 000 à 334 000.

[81] (Stone 1979 : 77.) Stone souligne également que 92 % des actes de violence avaient lieu en dehors de la famille, alors qu'aujourd'hui 50 % se déroulent dans le cadre familial.

[82] Notez qu'il y a d'autres façons de mesurer la gravité des catastrophes, en particulier en comptant le nombre de personnes touchées, qui a augmenté tout au long du siècle ; mais le nombre de morts a été compté avec plus de régularité que celui des victimes en général, car ce concept est extrêmement vague et a de nombreuses définitions (Croix-Rouge 1998 : 136). La tendance à la baisse est renforcée du fait que les données sont recueillies avec de plus en plus de précision, ce qui provoque toujours une hausse (Lidstone 1997 : les données « d'avant 1960 sont douteuses et incomplètes »).

[83] Il s'agit d'une estimation approximative, étant donné que l'espérance de vie moyenne était de 30 ans en 1900 (Preston 1976 : IX). Le taux de mortalité brut en 1950 était de 1 968 (Keyfitz et F1ieger 1990 : 105).

[84] À la suite de mes critiques, la section danoise du WWF a réussi à persuader l'organisation internationale de changer sa page Web.

[85] L'IRM 1996a : 201 estime cette proportion à plus de 50 et 60 % ; Chiras 1998 : 212 avance le chiffre de 70 %. Étant donné que la couverture forestière a disparu il y a si longtemps, les chiffres sont plus que douteux. De plus, des chiffres différents recouvrent différentes définitions de la forêt, comme on l'a vu ci-dessus.

[86] Goudie (1993 : 43) avance le chiffre de 20 % de perte depuis la période pré-agricole, probablement selon Matthews (1983), et Williams (1994 : 104) estime une perte de 16 % depuis la même période. Nous n'avons pas d'autres estimations pour la période pré-agricole, mais plusieurs estimations existent pour les derniers siècles où la déforestation était de loin la plus intense. Donc ces chiffres devraient être une légère sous-estimation de la période pré-agricole. Richards, lui, estime que la perte au cours des trois derniers siècles est de 19 % (1990 : 164). L'IPCC évalue également la perte totale de couverture forestière à 20 % de 1850 à 1990 (200la : 3.2.2.2).

[87] Myers cité par Goudie 1993 : 46. 33 % dans Myers 1991 : 52-53, où il prévoit une réduction de la couverture forestière de 17 %, chiffre qui a déjà été réduit de moitié, c'est-à-dire le tiers de la couverture actuelle.

[88] FAO 1997c : 12, tableau 1 et 18, tableau 5. Notez que la réduction de la perte de forêt est encore plus importante, parce que les 0,7 % sont calculés à partir d'une superficie un peu plus réduite. Miller cite également une estimation d'après des images satellite qui indique une déforestation d'environ 20 % du chiffre donné par la FAO (1998 : 342).

[89] La perte de forêt tropicale fut de 9,2 Mha dans les années 80 et de 8,6 Mha dans les années 90 (FAO 200lc : 9). La superficie totale de la forêt tropicale était de 1 810 Mha en 2000 (FAO 200lc : 19) et, en s'appuyant sur ces chiffres pour déduire la couverture forestière totale, en prenant les moyennes, on arrive à 0,4689 % pour les années 80 et 0,4592 % pour les années 90.

[90] Anderson 1995 : 430 ; Krinner et al. 1999 : 68-70 ; au Royaume-Uni, l'utilisation de l'eau a été réduite de 10 % grâce aux compteurs, p. 71. Cela a probablement été le cas au Danemark, où des taxes sur l'eau élevées comme jamais auparavant ont été accompagnées d'une baisse de la consommation à son plus bas niveau, voir ministère des Finances danois 1997 : 19. Le rapport entre les deux n'est pourtant pas très clair puisque la chute de la consommation a commencé en 1987, tandis que les taxes ont été appliquées pour la première fois en 1993.

[91] « Proclamation royale contre la pollution de la Tamise », sous la direction de Henry Thomas Riley 1868 : 367-368, Memorials of London and London Life in the XIIIth, XIVth and XVth Centuries, being a Series of Extracts, Local Social and Political, from the Early Archives of the City of London, Londres : Longmans, Green et Co., cite ici Baumol et Oates 1995 : 447-448.

[92] Brimblecombe 1987 : 64, cf. la citation de Baumol et Oates 1995 : 448 : « La glorieuse reconstruction de Saint-Paul est en cours, mais, aussi digne et belle que soit cette cathédrale, d'ici à peu de temps, elle aura l'air vieille et fanée avant même qu'elle ne soit achevée, et sera peut-être aussi endommagée par la fumée qu'elle le fut par l'incendie. »

[93] Cité dans Baumol et Oates 1995 : 448. Ce texte est à mettre en parallèle avec une observation semblable concernant Copenhague en 1861 : « Quand il n'y a pas de vent fort, [la ville] est encore pleine de fumée, et plane au-dessus d'elle une épaisse couche de fumée que l'on distingue très nettement quand on arrive vers la ville en venant de la campagne ou de la mer... Il arrive que les conditions soient franchement insupportables et la situation va progressivement empirer. » En 1908, un médecin, Poul Hertz, faisait la description suivante : « Quand on regarde Copenhague par un tranquille après-midi d'été depuis la colline de Brønshøj, on voit la ville recouverte d'un nuage gris qui brouille les contours et rétrécit le champ de vision. C'est la fumée de charbon mêlée à l'air, émise presque uniquement par les usines, ces étroits minarets caractéristiques de la ville moderne » (cité dans Jensen 1996 : 171). Jes Fenger, de l'Institut de recherche environnementale danois, estime que le contenu en dioxyde de soufre de l'air était environ dix fois plus élevé à Copenhague entre 1850 et 1970 qu'il ne l'est aujourd'hui : « Nuages de charbon (Stenkulsskyer) », article de fond paru dans le quotidien Politiken du 9 mai 1995.

[94] On estime que les conséquences mortelles pour les NOx par tonne sont d'environ 15 % du SO2, 463 dollars contre 3 102 dollars (Burtraw et al. 1997 : 14-15). « Le CO, qui est évidemment fatal à de fortes concentrations, a des effets bien plus limités sur la santé (principalement liés au système cardiovasculaire) aux niveaux d'exposition ambiants que l'on rencontre normalement. » (Burtraw et Toman 1997 : 3) ; cf. la conclusion de l'UE (AEA 1999 : 18) : « Il semble probable que le facteur principal des [problèmes du CO] n'est pas l'exposition aux niveaux ambiants de CO, mais l'exposition au CO par le tabac ou des appareils ménagers défaillants, ou les conséquences nocives d'un mauvais régime alimentaire, ou d'autres facteurs non dépendants de la qualité de l'air. Dans ces circonstances, l'effet de l'exposition au CO ambiant peut être simplement d'avancer de quelques jours l'admission à l'hôpital ou la mort. »

[95] COMEAP (Committee on the Medical Effects of Air Pollutants) 1998 ; Stedman et al. 1999 ; IGCB 1999. La mortalité la plus forte vient des PM10, suivi par le SO2 et l'ozone (à moins de supposer un modèle sans seuil) (COMEAP 1998 : tableau 1.2). Cependant, les études ne prennent en compte que les morts brutales, alors que, que s'agissant de la mortalité à long terme, les études américaines « suggèrent que les conséquences globales peuvent être sensiblement plus importantes que celles que nous avons été en mesure de quantifier jusqu'à présent ». (COMEAP 1998 : 1.14). Cela enlève de l'intérêt aux études dans leur considération des coûts totaux de la mortalité.

[96] Les estimations de la concentration en plomb de 1960 à 1976 s'appuient sur les émissions de plomb de EPA 2000d : 3-19-20 et Graney 1995 : 1 722.

[97] Les conséquences sont naturellement toutes relatives : moins les problèmes créés par les polluants de références sont graves, plus les autres le deviendront, toutes proportions gardées.

[98] Ce résultat est plus ou moins équivalent à Grossman et Krueger 1995 : 364. Shafik précise toutefois que son résultat peut être faussé, car sans doute, seules les rivières les plus polluées sont surveillées dans les pays riches, 1994 : 765.

[99] C'est le résultat de Grossman et Krueger (1995 : 364), et aussi celui de Torras et Boyce (1998 : 157), tandis que Shafik (1994 : 764) a vu une baisse.

[100] « Le goéland argenté devient un indicateur chimique de plus en plus précieux à mesure que la difficulté d'évaluer les degrés de polluants dans l'eau, les poissons ou les sédiments augmente. » (SOLEC 1999 : 18.)

[101] Un résultat qui est confirmé par les analyses de poissons. (Hesselberg et Cannon 1995.)

[102] Asimov et Pohl 1991 : 144. De même, Get a grip on ecology nous parle « du manque d'espace pour les sites d'enfouissement » (Burne 1999 : 137).

[103] Le dépôt de 110 millions de tonnes pendant 100 ans donne 1.110 tonnes.
Comme une tonne d'ordures occupe environ 1,43 m3 (Ågerup 1998 : 110), cela donne :
1,57310 m3, proche de 30 m × 22 898 m × 22 898 m = l,57310 m3, ou un carré de 14,23 miles (22,9 km)
de côté, d'une profondeur de 30 m
.

[104] En utilisant le taux de croissance cumulée de la quantité totale de déchets par personne pour la période 1990 à 2005 (0,07 %) et la projection de population moyenne de l'USBC 2000c, on obtient une production totale de déchets de 1,72710 tonnes.
Si une tonne représente 1,43 m3 (Ågerup 1998 : 110), cela nous donne :
2,46910 m3, proche de 30 m × 28 688 m × 28 688 m = 2,46910 m3, ou un carré de 17,83 miles (28,7 km) de côté, et d'une profondeur de 30 m.

[105] La superficie du Woodward County est de 1 242 mi2 (USBC 1998b) ; 17,83 mi × 17,83 mi = 318 mi2, soit 25,6 %.

[106] 0,45 % de l'Oklahoma qui fait 69 903 mi2 (USBC 200lb : 227).

[107] La superficie des États-Unis est de 3 717 796 mi2 (USBC 200lb : 227).

[108] 318 mi2 /50 = 6,36 mi2, avec 2,52 mi × 2,52 mi = 6,35 mi2.

[109] Par exemple, Hanley et Slark 1994 : Ackerman 1997. Comparer avec l'histoire de Gore sur les recycleurs ne trouvant aucun débouché pour les matériaux, et demandant un soutien public (1992 : 159).

[110] Il faut supposer que les meilleures idées de recyclage ont déjà été exploitées et que les retombées d'un recyclage plus important seront moindres. Si on augmente le taux de recyclage, les bénéfices pour la société seront moindres.

[111] Ames et al. 1987, 1990a, 1990b ; Gold et al. 1992 ; Ames et al. 1993 ; Ames et Gold 1990, 1997, 1998, 2000.

[112] À proprement parler, il s'agit d'un test pour la génotoxicité d'une substance chimique (Rodricks 1992 : 152). Ames a également contribué à faire interdire de nombreuses substances synthétiques dangereuses dans les années 70 (Postrel 1991).

[113] Printemps muet par Rachel Carson (1962) « a surfé sur la vague de l'anxiété du public, ce qui l'a propulsé en tête de la liste des meilleures ventes ». (Colborn et al. 1998 : 65 ; Rodricks 1992 : 43.)

[114] C'est malheureusement une expression de l'invraisemblable superficialité du débat sur l'environnement que 99,99 % soit la citation d'Ames la plus populaire à la fois chez les partisans et les opposants, alors qu'il est évident qu'il ne s'agit pas du tout de son message le plus important.

[115] Et la caféine est encore incertaine (Ames et Gold 2000 : 6). On souligne souvent qu'une tasse de café contient au moins 10 mg de pesticides naturels, ce qui est plus que la quantité totale de pesticides synthétiques que l'Américain moyen consomme en une année entière (Gold et al. 1992 : 262). Une fois encore, il s'agit d'un bon argument rhétorique, mais qui n'a pas de valeur : le principal est de comparer leur pouvoir carcinogène total.

[116] Indice HERP = Dose d'exposition chez les humains/dose active chez les rongeurs. (Ames et al. 1987 : 272.) Si les données sont disponibles pour les souris et les rats, c'est celle de l'espèce la plus sensible que l'on prend en considération, en accord avec les directives de l'EPA (Gold et al. 1992 : 263).

[117] Trois tasses de café contiennent également du catéchol, du furfural et de l'hydroquinine, provoquant respectivement des risques de 0,02 %, 0,02 % et 0,006 % (Ames et Gold 1998 : 214), mais on n'a pris en compte que le risque le plus élevé.

[118] Malheureusement, un nombre insuffisant de tests ont été effectués par HERP pour que l'on ait des indications sur tous les pesticides.

[119] Cela est particulièrement vrai pour les non-mutagènes. Des arguments du même ordre peuvent être avancés pour les mutations, qui surchargent les mécanismes de réparation de l'ADN, voir Ames et Gold 1997.

[120] Edgerton et al. 1996 : 108-110 ; Knutson et Smith 1999 : 109 ; Lutz et Smallwood 1995. Patterson et Block (1988 : 284) montrent que la quantité relative de fruits et légumes que consomment les gens augmente exactement en fonction de leur revenu.

[121] La linéarité est supposée proche de l'estimation originale, qui est également ce que suggère le WCRF (1997 : 540) ; 4,6 % de 593 100 (ACS 1999 : 4). Une hausse des prix des fruits et légumes n'entraînerait pas de hausse du prix de la viande puisque les importations d'alimentation pour le bétail seraient toujours libres (Commission Bichel 1999c : 68). Ainsi, l'effet produit sur le revenu ne conduirait sans doute pas à une réduction de la consommation de viande et de graisse. En outre, une telle réduction de la consommation mènerait probablement également à une réduction de la consommation de fibres (Patterson et Block 1988 : 284).

[122] Évidemment, si on introduit des restrictions concernant les pesticides dans un seul pays sans imposer de restrictions sur les importations de fruits et légumes, on sera toujours en mesure de se procurer des fruits et légumes bon marché venant de l'étranger qui ont été cultivés avec des pesticides. Cela ne ferait qu'entraîner une légère hausse des prix. (Remarquons qu'une simple baisse de 2 % de la consommation provoquerait près de 2 000 décès de plus par an aux États-Unis.) Cela veut dire que nous bénéficierions d'une eau du sous-sol moins chargée en pesticides tout en évitant une forte hausse des prix des fruits et légumes, mais d'autre part, cela n'aurait aucun effet positif sur la santé parce que l'eau potable ne représente qu'une partie très mineure du risque total des pesticides (cf. figure 124). On finirait par payer 20 milliards pour un avantage esthétique (une eau potable propre). On a donc supposé ci-dessus que nous choisirions une solution totale cohérente.
Figure 124Quantité de pesticides dans les aliments (45 µg/jour soit 99,6 %) et dans l'eau (0,2 µg/jour soit 0,4 %), même en buvant deux litres par jour d'eau venant de sources contenant des pesticides au maximum des normes européennes.
(Source : Ames et al. 1987 : 272.)

[123] Dans un résumé sur la biodiversité, Ulfstrand cite l'affirmation de Myers suivant laquelle dans 50 ans [à la fin du XXe siècle], la moitié des espèces auraient disparu et écrit : « Les écologistes et les biologistes défendant des théories évolutionnistes sont en général d'accord sur ces estimations. » (1992 : 3). Si on n'instaure pas une nouvelle gestion de la nature, le rapport Brundtland déclare « qu'à long terme, au moins un quart, sans doute un tiers, voire même une partie encore plus importante des espèces existant aujourd'hui pourrait disparaître » (WCED 1987 : 152).
Le site Internet de Web of Life nous dit que 50 000 espèces meurent chaque année
(http ://www.weboflife.co.uk/weboflife/press_centre/pr_0006006.html).
La Chronique de l'ONU s'est fait l'écho d'un article suivant lequel « le PNUE a prédit que jusqu'à 25 % des espèces vivantes peuvent disparaître en l'espace d'une vie humaine » (Anon. 1992a : 52). Greenpeace affirme sur son site que « l'on s'attend à ce qu'environ la moitié des espèces sur terre disparaissent dans les 75 prochaines années. » Ce document a été retiré du site à la demande du président danois de Greenpeace, suite à ma critique parue dans le quotidien danois Politiken (18 février 1998, www.greenpeace.org/comms/cbio/bdfact.html). Ce chapitre est pour une grande partie inspiré de Simon et Wildawsky 1995.

[124] C'est aussi le point de vue d'Ehrlich (1995 : 224) : « C'est la médiatisation du déclin de certains vertébrés charismatiques de grande taille qui risque d'alerter l'opinion publique sur les espèces en voie de disparition plutôt que les recherches scientifiques... Les profanes se sentent tout à fait concernés par les pandas et les baleines. »

[125] Pimentel et al. 1997, Constanza et al. 1997 ; à noter que la référence Constanza et al. à 180 % du PNB semble incorrecte : Pearce 1998 ; FMI 2000a : 113.

[126] (Ex. : Pimentel et Pimentel 1999 : 423 ; Janetos 1997.) Le rapport Brundtland (WCED 1987 : 155) affirme que « la valeur économique intrinsèque des éléments génétiques des espèces suffit à elle seule à justifier la préservation des espèces ».

[127] (Simpson et Sedjo 1996 ; Simpson et Craft 1996.) Simpson et Sedjo trouvent que la valeur de l'espèce finale sur 5 millions d'espèces est de 10-37 dollars, chiffre ridiculement petit (1996 : 24). Ils en concluent donc que : « Les incitations économiques à la préservation entraînées par la prospection de la biodiversité sont négligeables. » (1996 : 31). De même, Simpson et Craft estiment la valeur de 25 % de toutes les espèces à 111 milliards de $ ou 0,4 % du PNB mondial annuel (1996 : 16-17).

[128] (Kaplan 1998 ; Cambell 1993.) Le rapport Brundtland nous donne un exemple similaire du maïs américain qui, en 1970, a été dévasté par un champignon (leaf fungus) et sauvé par les gènes de deux espèces anciennes de maïs mexicain (WCED 1987 : 155).

[129] Myers (1979 : 4) écrit 1 000, bien qu'il soit évident, d'après sa seule source d'information, qu'il s'agit de 100 : « À ce jour, le taux d'extinction mondial est estimé à 10 000 espèces par siècle. » (Holden 1974 : 646.)

[130] Rappelons de nouveau ce que dit Ehrlich sur le sujet (1995 : 224) : « C'est la médiatisation du déclin de certains vertébrés charismatiques de grande taille plutôt que les recherches scientifiques qui risque d'alerter l'opinion publique sur les espèces en voie de disparition. Les profanes se sentent tout à fait concernés par les pandas et les baleines. »

[131] (Sirnberloff 1992 : 85.) Simberloff écrit ici que trois espèces d'oiseaux ont disparu, mais que la déforestation n'était pas responsable dans deux des trois cas.

[132] (Brown et Brown 1992 : 127, italiques ajoutés.) À noter, toutefois, que le mitu mitu, un grand oiseau terrestre frugivore, rencontré seulement dans quelques forêts côtières en Alagoas, au nord-est du Brésil, s'est probablement éteint à l'état sauvage ; seuls quelques spécimens en captivité subsistent.
(Baillie et Groombridge 1997, http://www.wcm.org.uk/species/data/red_note/18610.htm, Fog 1999 : 133.)

[133] (Brown et Brown 1992 : 127.) Fog rapporte que depuis, 10 espèces de plantes ont été déclarées « éteintes » (1999 : 133).

[134] Paradoxalement, il y a de cela seulement 20 ou 30 ans, presque tout le monde s'inquiétait de voir advenir un nouvel âge de glace (Bray 1991).

[135] Greenpeace 2000. Cf. la déclaration du GIEC : « La pénurie d'énergies fossiles, tout au moins au niveau planétaire, n'est donc pas un facteur significatif en ce qui concerne une atténuation du changement climatique », (GIEC : 200lc : TS (Technical Summary, résumé technique), 3.2).

[136] Il y a eu un grand débat sur les ajustements pour la chaleur urbaine (presque tous les relevés de températures se font près des grandes villes qui se sont étendues avec le temps et qui émettent et attirent de plus en plus de chaleur), dans lequel je ne me lancerai pas ici (voir par ex. Burroughs 1997 : 114), car la marge d'erreur ne semble pas si importante. Peterson et al. (1999) ont montré à peu près les mêmes séries chronologiques de température mondiale pour les stations rurales uniquement. Le GIEC estime que l'erreur est inférieure à 0,05°C pour le siècle dernier (2001a : 2.2.2 .1).

[137] Tette et al. (1999) trouvent que « l'attribution au réchauffement du début du siècle s'est révélée plus vague », et Delworth et Knutson (2000) trouvent qu'une variation naturelle « exceptionnellement importante » est nécessaire pour modéliser la courbe de température. Généralement, les simulations ne tiennent tout simplement pas compte de l'augmentation de température entre 1910 et 1945. (voir par ex. Barnett et al. 1999 : 2 634 ; GIEC 1997c : 30). Cette façon d'interpréter les données sur la température a suscité des critiques et des doutes. Aksel Wiin-Nielsen, professeur émérite de météorologie et ex-directeur général de l'OMM de l'ONU, avance l'argument que, si la première hausse avait des causes naturelles, il est plausible que la seconde puisse en avoir aussi (Christensen et Wiin-Nielsen 1996 : 58-59).

[138] (GIEC 2001a : 6.15.1, 12.2.3.1, figure 12.7, 8.6.4.) GIEC 200la : 6.11.1.1.2 trouve que le degré de connaissance scientifique de l'évolution de l'irradiation dans le passé est « très faible ».

[139] Avec un PIB mondial de 32 110 milliards de dollars en 2000 (FMI 2000b : 113). On ne connaît pas encore avec certitude comment évolueront les coûts sur 50 ou 100 ans, étant donné que certains coûts, exprimés en pourcentage, chuteront alors que d'autres augmenteront (GIEC 1996c : 189). Il faut supposer que de nombreux secteurs majeurs, en particulier la protection des côtes et l'agriculture en tant que maximum, sont dépendants d'une façon inférieure à la dépendance linéaire de la taille des autres économies.

[140] Avec une répartition approximative entre les deux comme en 1993 : 23 billions pour le monde industrialisé et 5 milliards pour le monde en voie de développement (WI 1997a : 116).

[141] (GIEC 1996c : 183 ; 1997a : 31.) La différence de coût est en partie due au fait que l'amélioration de l'infrastructure et l'augmentation des ressources faciliteront relativement la gestion du problème.

[142] Cette citation fut par la suite retirée dans le processus d'approbation politique et n'apparaît pas dans le Résumé final, mais elle exprime assez bien les rapports de référence (voir par ex. GIEC 200lb : TS./.2.4). Pour un examen du contrôle politique du GIEC, voir ce qui suit.

[143] (GIEC 200lb : Résumé à l'intention des décideurs, projet original du gouvernement, 2.6.) On estima que toutes les affirmations étaient dignes d'un degré de confiance moyen. Cette affirmation fut changée dans la version finale et devint : « Fondées sur certaines estimations publiées, les augmentations de la température mondiale moyenne produiraient des pertes économiques nettes dans de nombreux pays en voie de développement pour toutes les magnitudes du réchauffement étudié (degré de confiance faible), et les pertes seraient d'autant plus importantes que le niveau du réchauffement serait élevé (degré de confiance moyen). Par contraste, une augmentation de la température mondiale moyenne allant jusqu'à quelques degrés C produirait un mélange de gains et de pertes dans les pays développés (degré de confiance faible), avec des pertes économiques pour des augmentations thermiques supérieures (degré de confiance moyen). La projection de la répartition des impacts économiques est telle qu'elle ferait croître la disparité de bien-être entre pays développés et pays sous-développés, la disparité croissant avec l'élévation de la température projetée (degré de confiance moyen). Les impacts les plus négatifs estimés pour les pays en voie de développement reflètent en partie leur moins grande capacité d'adaptation par rapport aux pays développés » (GIEC 200le : 6).

[144] C'est également à peu près la seule solution que préconise le GIEC en plus de planter des forêts pour absorber du CO2. Pour d'autres solutions de séquestration du carbone, voir Laut 1997 : 30-31 ; Schelling 1996 ; NAS 1992.

[145] L'accord contient une série de différentes contraintes pour les différents pays (Kyoto 1997), et de difficiles procédures de conversion traduisent toutes les émissions de gaz à effet de serre en CO2. Le chiffre de 5,2 % est l'équivalent en CO2 de la réduction globale des émissions des gaz à effet de serre (Masood 1997). Remarquez que la désignation « Annexe I » vient de la Convention-cadre sur les modifications climatiques des Nations unies (FCCC) de 1992, alors que le protocole de Kyoto prescrit des limitations d'émissions pour une liste de pays figurant dans ce qu'on appelle l'« Annexe B » (Weyant et Hill 1999 : XI). Comme les deux listes incluent la plupart des parties majeures (la Slovaquie, la Slovénie, le Liechtenstein et Monaco ont été ajoutés à l'Annexe B, alors que la Biélorussie et la Turquie n'y sont pas), seul le terme « Annexe I » sera utilisé ici (comme dans Weyant et Hill 1999 : XI).

[146] D'une manière générale, on peut dire que, sur la base d'une stabilisation donnée, la solution la moins chère est de repousser le plus tard possible les réductions parce que cela facilitera l'amortissement des investissements d'adaptation. (GIEC 1996c : 386-387.)

Philo5
                Quelle source alimente votre esprit ?