les idées qui font des petits!

Archives de octobre, 2010

La Laïcité sous l’angle socio-économique : analyse macrosociologique.

Ce samedi 30 octobre, l’hémicycle de la communauté française de Belgique était convié à une séance-débat pour fêter les 15 ans du parlement jeunesse (PJ). A cette occasion, il était prévu que les versions édulcorées de deux décrets qui avaient marqués les annales du PJ soient remis, l’espace de deux heures, sur le métier, l’un portant sur l’encadrement de la prostitution volontaire, l’autre sur la laïcité.

En tant que membre de la commission laïcité je possède, parmi d’autres, ce plaisir de connaître l’histoire parlementaire du décret ainsi que le cheminement intellectuel qui l’accompagne. Un recul qui n’a fait que me conforter un peu plus dans mes frustrations lorsqu’il me fut donné l’occasion, en trois petites minutes seulement, d’exposer à l’hémicycle mon point de vue sur le décret. Trois petites minutes pour expliquer un cheminement intellectuel de plusieurs semaines, la tâche était impossible, trop à l’étroit dans mon costume étriqué de député, j’ai cafouillé. D’ailleurs, j’ai déçu mes camarades qui travaillèrent avec moi en commission.

Mais la plénière est davantage le terrain des sophistes, un lieu de théâtre, qu’une Agora, un temple de la Vérité. Chacun cherchant à faire mouche de sa petite personne, les gens ne prennent pas le temps de s’écouter, de réfuter ou mettre en perspective les arguments des uns et des autres afin de construire le débat. La forme des échanges y est pour beaucoup, d’ailleurs il ne faudrait pas que certains se donnent l’illusion que le débat démocratique se fait en plénière. En réalité, c’est dans les méandres du parlement, durant des contacts informels et en commission et surtout dans les cabinets ministériels que se fait le gros du travail législatif.

Reste que j’observe que les mêmes arguments éculés furent mis en débat. Par conséquent, le ministre, en la personne de Martin Dethier, ne fut jamais véritablement mis en difficulté. Je l’ai déjà souligné par le passé, je le répète : chacun entrevoit les enjeux d’un débat à travers le prisme de sa formation, une forme de biais intellectuel dès lors que l’hémicycle serait majoritairement composé de gens issus d’un même horizon académique. Celui-ci étant en majeure partie constitué de politologue ou autres droïdes, c’est le plus souvent sous l’angle juridico-juridique qu’un débat est appréhendé.

Concernant la laïcité, le biais intellectuel dont le débat fut, pour la seconde fois, prisonnier, est une approche qualitative, par opposition à quantitative. Le juriste aborde toujours la problématique du port de signe religieux sous l’angle de l’individu. Par conséquent, le débat se focalise sur le respect de droits fondamentaux tels que la liberté d’expression et la liberté de culte et se cristallise systématiquement sur des mesures restrictives à ces droits induites par le respect du principe de laïcité.

J’observe que lesdites mesures sont très difficiles, si pas impossibles,  à justifier sous cet angle d’approche tant elles semblent rogner sur les droits et libertés fondamentales, en particuliers eu égard à l’Islam qui se caractérise par le port de signes religieux ostentatoires. Dans ce cas, la laïcité ne peut qu’être vécue que comme l’expression d’une loi d’exception à l’égard de cette religion, une discrimination institutionnalisée.

En réalité il n’en est rien. Dans l’esprit de la loi française de 1905 sur la séparation de l’église et de l’Etat, la laïcité est un principe philosophique qui organise et garantit l’égalité de traitement entre les différentes religions et autres  convictions dites  « philosophiques ». La laïcité ne saurait être fermée ou ouverte, tolérante ou intolérante, elle se suffit à elle-même. Elle se justifie pour au moins deux raisons et exige d’être confortée à l’heure où la « multiculturalité », à défaut de « l’interculturalité » est une situation de fait dans certaines métropoles européennes, Bruxelles notamment.

D’une part, elle garantit la séparation des pouvoirs temporels et spirituels, des affaires de l’Etat et de celles de l’Eglise, une valeur typiquement occidentale. En effet, le combat initié depuis les lumières contre l’obscurantisme religieux a abouti à raboter la religion, catholique, à sa dimension spirituelle. Mais ce serait oublier un peu vite que la vocation première d’une religion est institutionnelle. Longtemps, l’Eglise fut une institution qui régis la société, les rapports entre les hommes. Elle établit des normes, sous la forme d’un corpus de loi transcendantales, par opposition à immanentes.

Cette prétention à structurer le débat public est incompatible avec la démocratie, la loi des hommes, soit, selon la formule bien connue d’Abraham Lincoln « le pouvoir du peuple, par le peuple, pour le peuple ». De ce point de vue, il est très clair que le fait religieux est subordonné à la loi des hommes, par conséquent, la liberté de culte ne saurait être inconditionnelle. En clair : la justice des hommes s’est substituée à celle de Dieu, d’où, peut-être, le célèbre « Dieu est mort » de Nietzsche. La laïcité est donc une forme de verrou sur les affaires de l’Etat, sur le domaine public, universel, qui par définition, appartient à tous les citoyens sans préjudice de leurs particularismes. Mais ce serait oublier qu’elle garantit aussi que l’Etat ne s’immisce dans la sphère religieuse, ce qui relève de particularismes, de certains individus.

Ensuite, si on se place d’un point de vue macrosociologique, on peut aborder le débat sous l’angle quantitatif. A cet égard, les lunettes d’économiste ou d’anthropologue sont précieuses. Partant du modèle de concurrence parfaite posant l’atomicité de la réalité sociologique du corps social comme hypothèse, la laïcité entrevue comme un principe structurant l’équilibre macrosociologique entre différents groupes , et non individus, il s’agit là d’un raisonnement agrégé, ne se justifierait pas. En effet, si 10 millions de belges arboraient 6 millions de symboles religieux différents, aucun de ces symboles ne serait en mesure de s’imposer « sur le marché de la réalité sociologique » plutôt qu’un autre. Dans ce cas, on voit mal comment le fait religieux, dont le port de symbole est l’expression la plus visible, provoquerait des tensions.

Si on se place dans le contexte d’une concurrence monopolistique, l’équilibre est aussi stable puisque le plus fort impose sa loi. Problème : les « petits » souffrent. Dans ce cas, la laïcité comme principe régulateur revêt la forme d’une  mesure antitrust et donne un espace de liberté, une bouffée d’air, aux individus issus d’une confession religieuse ou philosophique marginale. Inutile de préciser qu’en Belgique, c’est l’Eglise catholique qui occupe actuellement cette situation de monopole.

Enfin, la concurrence oligopolistique donne l’image de quelques grosses « enseignes » en proie à une lutte au coude à coude pour s’approprier un marché. Ce qu’il est crucial de noter, c’est que le débat sur la laïcité se pose aujourd’hui, plus d’un siècle après le vote de la loi de 1905, avec une acuité particulière, dans le contexte d’une société pluriethnique. Ce changement de réalité sociologique matérialise une remise en question du statu quo dans lequel l’église catholique est en situation de monopole au profit d’une dynamique oligopolistique. La montée de l’Islam y est pour beaucoup.

Or, dans cette situation ou des groupes portant des revendications identitaires sont en quelque sorte en compétition pour augmenter leur emprise ou à tout le moins la diffusion de leur idées dans la société, la laïcité agit une nouvelle fois comme un principe régulateur dont le mérite ultime, je le répète,  est de garantir que des particularismes ne s’approprient la sphère publique.

Si on applique ces principes, on doit comprendre qu’une distinction doit être faite entre une situation où beaucoup de fonctionnaires porteraient un signe religieux relevant d’une même confession de celle où quelques fonctionnaires porteraient un tel signe. Dans le premier cas, le principe de laïcité prenant l’expression de la neutralité de l’Etat se justifierait beaucoup plus que dans le second. Ou pour le dire autrement, l’arbitrage entre particularismes et universalisme  devrait être tranché en faveur du premier dans le premier cas, soit  les droits d’individus, à savoir la liberté de culte, et en faveur du second, la neutralité du secteur public dans le second cas. Où est la limite me direz-vous ? Eh bien, c’est assez simple, dès lors que le débat est porté sur la place publique, ce qui reflète le fait que le phénomène a pris une certaine ampleur. Tel est le cas. Je précise qu’il s’agit là d’une perception subjective. En fait, la dynamique des rapports de forces est sous-sous-jacente à ce raisonnement.

Enfin, vous m’aurez compris, je me méfie des revendications identitaires  lorsqu’elles cherchent à perfuser, dominer l’espace public, qui appartient à tout le monde. C’est pourquoi je me pose en ardent opposant du communautarisme, qui, pour moi, préside à une balkanisation de la société. C’est la forme que prend l’enseignement qui, selon moi, doit arbitrer le choix entre communautarisme et universalisme républicain, entre particularisme et universalisme.

Le premier choix justifiera que l’enseignement prenne une forme privée et que par conséquent il reflète les particularismes de chacun. En d’autres termes, les cathos iront dans une école catholique, les musulmans dans une école islamique, les juifs dans une école juive, etc. Par opposition, le second choix optera pour l’universel : dans cette conception, l’enseignement est un lieu de savoir, un lieu où l’individu est en construction, en devenir. Par conséquent, il est exclu qu’il y affiche ses déterminismes sociaux avant de les avoir mis en perspective. En quelque sorte, ce type d’enseignement, le modèle républicain à la française, vise à répliquer les conditions d’un modèle de concurrence parfaite, c’est-à-dire à produire une réalité sociologique atomistique : chaque individu est unique, certes il possède des particularismes, mais il est invité à s’en détacher, les mettre en relief, ce qui est indispensable si on veut entrer sereinement en contact avec l’autre.

Le modèle universaliste pose l’existence d’un socle commun de valeurs, universelles, comme un préalable à la viabilité d’une société multiculturelle. Le modèle communautarise ne pose pas cette condition. En fait, il postule qu’un panel hétéroclite de réalités sociologiques se côtoyant voir se juxtaposant les unes aux autres est capable de s’autoréguler en quelque sorte. Au nom du relativisme il prône une la tolérance absolue et le respect des convictions de chacun. En réalité il exacerbe ce qui nous divise plutôt que ce qui nous rassemble en enfermant un individu dans ses particularismes.

Aujourd’hui, le statu quo n’est plus possible en Belgique car se pose la question de la place de l’Islam. Un choix entre universalisme et particularisme devra être fait et c’est dans l’enseignement qu’il se matérialisera. J’ai des doutes quant au fait que la réalité institutionnelle évolue vers un enseignement républicain, le communautarisme est le choix de la facilité, mais c’est le piège à éviter. Il est crucial de créer des ponts entre les différentes cultures, un langage commun, un espace de dialogue, afin d’éviter un mini « clash des civilisations » dans les zones urbaines à la réalité sociologique fortement contrastée.

Publicités

Etiquettes & identités multiples : pied de nez à la clusterisation sociale.

Matthieu Pigasse n’est pas à une contradiction près. Il est à la fois banquier et actionnaire du journal le Monde qu’il vient de racheter aux côtés de Pierre Bergé et Xavier Niel. Dans l’entretien du Vif de cette semaine (22 au 28 octobre 2010), il déclare que « la richesse d’un individu, c’est sa diversité, y compris ses paradoxes ou ses contradictions » et ajoute : «  J’ai une détestation des cases, des rangements tout faits, des étiquettes. Je suis banquier, je l’assume et j’aime ce que je fais. Je suis aussi dans la presse pour des raisons que j’ai évoquées. L’un et l’autre se nourrissent d’une certaine façon ». Du petit lait.

Il n’est rien de plus ennuyant que les gens monolithiques, ceux qui de la tour d’ivoire de leur identité bétonnée se permettent de juger. Ils ne vont surprendront pas, enfermés dans la normalité dictées par les groupes homogènes auxquelles ils appartiennent, ils feront toujours la distinction entre le « nous » et le « toi ».

« Chaque personne à quelque chose à t’apprendre », cette conviction intime qui fut léguée à chacun des disciples de la Vérité sur cette terre par Socrate, une philosophie de vie, expose ses individus. Constamment pris entre le marteau, le regard des autres qui lui ont déjà apposé quelques étiquettes, et la soif de rencontres hétéroclites, l’enclume, ces individus sont condamnés a louvoyer entre leurs contradictions ou a compartimenter soigneusement  leur vie. En fait, seule la solitude semble s’accommoder de leurs identités multiples.

Et c’est là que j’en viens à la théorie des clusters. Je dis souvent : « les gens, cessez de « clusteriser » ». Cessez un peu de faire dans le consanguin, à force de trop traîner exclusivement avec des gens qui partagent  cette matrice d’identité commune, vous allez perdre toute singularité, toute faculté à surprendre, à vous exposer, à risquer l’ouverture à l’autre et ses différences qui, forcément, vous changeront irrévocablement. La peur, la peur d’être seul, voilà ce qui gouverne ce monde et pousse les gens à clusteriser,  à s’assembler en « grappes » d’individus qui se ressemblent.

Et pendant ce temps, l’individu aux identités multiples souffre, car ses contradictions exacerbent ses sens. Lui clusterise aussi, mais dans des cercles hétéroclites. Rien ne le fait davantage souffrir que lorsqu’on essaye de l’assimiler à un de ces groupes, de le réduire à une de ses identités, une étiquette. C’est ce qui fait de lui un loup égaré parmi les brebis ou un mouton noir dans le troupeau, selon sa façon de jongler avec son panel de sensibilités. Un insoumis, condamné à une forme de solitude qui n’a de prix que son unicité. Peut-être est-ce là la définition du libertaire.

La liberté prélève un lourd tribu : ne jugez pas et vous serez jugé. Ce sacrifice vaut bien la faculté à s’émerveiller, à préserver l’enfant qui grandi en soi.

« Il nous fallut bien du talent pour être vieux sans être adulte » (Jacques Brel). *

 

 

*spéciale dédicace à un ami, il se reconnaîtra.

Impasse politique totale : quel avenir pour la Belgique ?

Christian Berhendt, professeur de droit constitutionnel (Ulg), livre dans la Libre de ce week-end son analyse des futurs possibles des belges dans une perspective post-Belgique. En écartant la voie des armes, il déclare en substance «qu’  il n’y a au final que deux solutions réalistes: la sécession concertée et le démembrement à la tchécoslovaque » .

Ces deux scénarios doivent être clairement distingués car dans le premier cas les francophones pourraient conserver ce qu’il conviendrait d’appeler la « Belgique résiduelle ». Dans cette hypothèse, la Flandre négocierait sa sortie du cadre belge là où les francophones hériteraient du cadre juridique actuel, ce compris les traités. Dans le second scénario d’un démembrement  à la Tchécoslovaque, la Belgique cesserait d’exister et deux ou trois nouvelles entités seraient créées. Dans ce cas, chacun repartirait d’un page blanche pour ce qui touche au cadre juridique.

Je suis un peu sceptique quant au réalisme de ces deux hypothèses. Le scénario d’une sécession concertée serait très défavorable à la Flandre. Il ne fait aucun doute qu’elle y perdrait Bruxelles. De plus, rien ne dit que la nouvelle république de Flandre serait reconnue par les Etats tiers, européens et autres. Une Flandre en dehors du marché commun, des accords de l’OMC, au banc  de l’assemblée générale des nations unies alors que les francophones pourraient confortablement bénéficier de l’acquis juridique bâti depuis 1830? Allons, soyons un peu raisonnable.

Le second scénario d’un démembrement concerté me semble plus plausible. Toutefois, sa mise en œuvre exige une « européanisation » préalable du différent. C’est une nécessité absolue. Disons ici que la pilule serait difficile à avaler pour les Etats européens qui aujourd’hui sont en proie à des mouvements séparatistes internes. Je pense ici au Royaume-Uni, à l’Italie, l’Espagne. Le risque d’une « balkanisation » de l’Europe est réel. La vieille dame a déjà un genou à terre, faut-il en rajouter ?

Bon, dans ce cas, quelles sont les options qu’il nous reste ?

J’en distingue  deux. La première, une Belgique « toit de verre » et la seconde, le rattachement à un autre Etat. C’est ici que l’analyse devient intéressante. Par « Belgique toit de verre », j’entends un scénario dans lequel la Belgique sur la forme – juridique donc – continuerait d’exister, mais pas sur le fond. Sur le fond, francophones et flamands ne feraient plus grand-chose ensemble. Chaque entité disposerait de la plénitude des compétences nonobstant le fait que des accords de coopération pourraient exister. Cette hypothèse, c’est le confédéralisme au sens flamand du terme (par opposition au sens juridique de ce terme).

Soyons clair, c’est le scénario qui se profile. Je n’ai personnellement aucun soucis quant au fait qu’on évolue vers ce type de situation à cette double condition : (1) Bruxelles doit être désenclavée et (2) chaque entité REGIONALE i.e.  Bruxelles, la Flandre SANS Bruxelles et la Wallonie, doit être pleinement autonome, c’est-à-dire libre de s’associer à qui elle veut et de déterminer son organisation institutionnelle. Le premier point est un tabou pour la Flandre, mais c’est aussi le cas pour la régionalisation de l’Impôt des Personnes Physiques (IPP) côté francophone. Par conséquent, un espace de compromis existe. Le second point touche, bien sûr, à la pleine reconnaissance de Bruxelles comme région. Il exige que la Flandre assimile cette évidence : Bruxelles n’appartiendra jamais à la Flandre, elle appartient aux Bruxellois, un peu facile ce double discours quant au droit à l’autodétermination des peuples…

Et si la Flandre refuse ?

C’est ici que le scénario du rattachement gagne ses galons. Une union-association avec la France nous permettrait de ne pas subir le déshonneur-l’hypothèse où acculés, les négociateurs francophones devraient se résoudre à poser des concessions anormalement asymétriques – tout en conservant Bruxelles et nos institutions. Certes, les pouvoirs régaliens seraient transférés à l’Etat français. De même, notre enseignement serait aligné sur la modèle républicain. Notons enfin, et c’est pourquoi cette hypothèse est intéressante, que la dette, au moins en partie –ceci devrait faire l’objet d’une négociation –, serait reprise à charge de l’Etat français. Faut-il encore que les français soient d’accords me direz-vous. Sur ce point, je suis optimiste. La France regagnerait encore plus vite que selon les prévisions des démographes (20 ans environs) son statut de première puissance démographique européenne (perdu depuis la révolution de 1789). Sans oublier que le PIB de la Wallonie serait le sixième PIB régional par ordre d’importance de cette nouvelle France élargie. Et puis, la proximité culturelle devrait être un facteur déterminant.

Enfin, le scénario d’une union-association me semble plus acceptable pour les partenaires européens, l’Allemagne et le Royaume-Uni en particulier,  que celui-ci d’une assimilation pure et dure. En effet, ces deux « Grands » verraient d’un très mauvais œil le fait que Bruxelles tombe dans l’escarcelle française. Quoique, cette dernière objection est à relativiser car si on y réfléchi à deux fois, le fait qu’une institution internationale soit située sur le territoire d’un Etat ne signifie en rien qu’elle soit au service du dit Etat…

Pour l’heure, il n’est pas garanti que Johan Vande Lanotte réussisse là où les autres ont échoué. Le Spa n’est pas vraiment le parti frère de la Nva.   On peut lire dans la presse que celui-ci pourrait isoler les nationalistes en parvenant à mettre d’accord les six autres partis à la table des négociations, mais se serait oublier deux choses importantes. Premièrement, le Spa est isolé sur l’échiquier politique en Flandre, n’oublions pas que la note De Wever a été plébiscitée quasiment à l’unanimité par les partis flamands et la presse. Deuxièmement, la Nva est indispensable pour la réforme de l’Etat dès lors que l’Open Vld se refuse à monter à la table des négociations. Alexander De Croo répète à l’envi qu’il souhaite que son parti reste dans l’opposition…

Difficile d’établir un pronostic…

Sommet de Nagoya : au coeur des enjeux de la protection de la biodiversité.

La perte de biodiversité, pourquoi est-ce un problème ?

2010 a été désigné par les Nations Unies comme l’année de la biodiversité. Du 18 au 29 octobre, à Nagoya (Japon), se tient le sommet international bisannuel de la Convention sur la Diversité Biologique (CDB).

Trois dossiers majeurs sont sur la table de négociation: fixer de nouveaux objectifs pour enrayer la perte des espèces à l’horizon 2020, trouver un accord international sur les conditions d’accès des industries du Nord aux ressources génétiques des pays du Sud, dessiner l’évolution de l’aide aux pays les plus pauvres pour protéger leurs ressources naturelles.

Surexploitation des ressources, pollution, modification des habitats, espèces exotiques envahissantes, changement climatique: Une espèce d’amphibien sur trois, plus d’un oiseau sur huit, plus d’un mammifère sur cinq et plus d’une espèce de conifère sur quatre sont menacés d’extinction au niveau mondial (1).

L’observateur qui a intégré la révolution initiée par Darwin (1809-1882) sait que la Nature n’est plus considérée par les scientifiques comme figée. Les espèces connaissent des évolutions en fonction des interactions avec leur milieu. Certaines parviennent à dominer leur milieu ou à s’adapter avec plus ou moins de succès là où d’autres s’éteignent. On parle de spéciation et de coévolution.

Par conséquent, le problème n’est pas le fait que des espèces connaissent l’extinction. Ce qui pose problème, c’est le taux d’extinction des espèces animales et végétales : il est désormais « jusqu’à 1.000 fois plus élevé » que le taux historique connu jusqu’à ce jour, rappelle l’ONU (1).

Les écosystèmes sont des systèmes complexes au sein desquels les espèces interagissent – ce compris l’homme – . Cette interaction rend leur étude difficile car ils constituent un équilibre dynamique. A ce jour, les biologistes ont encore peu d’idée des conséquences de la perte de biodiversité.

Néanmoins, trois éléments peuvent être soulignés. Premièrement, il est admis que les écosystèmes maintiennent  les conditions de subsistance d’un environnement sain. En anglais on parle de « life support services ». Par exemples, les forêts recyclent le dioxyde de carbone, certaines plantes filtrent l’eau, les abeilles pollinisent de nombreuses plantes, les végétaux  vont capter la lumière à travers la photosynthèse,  cette énergie solaire va être stockée dans la plante et permettre aux herbivores de faire fonctionner leur métabolisme,  herbivores qui à leur tour vont être la source d’énergie de carnivores.

Ensuite, les scientifiques supposent que la résilience d’un écosystème, c’est-à-dire sa résistance au changement, est fonction de sa diversité biologique. Les biologistes classent les espèces en deux sortes : les espèces « clé de voûte » (« keystone species »)  et les autres. Les premières occupent une place stratégique dans le réseau trophique (2) : les conséquences de leur disparition peuvent avoir un effet domino sur d’autres espèces. A noter  que plusieurs espèces peuvent avoir le même rôle, c’est pourquoi les scientifiques pensent qu’une diversité plus importante diminue la probabilité que l’extinction d’une espèce clé de voûte détruise un écosystème. Une partie du problème lié à la perte de biodiversité tient du fait que nous ne savons pas dans une large mesure distinguer les espèces essentielles au maintien des services rendus par un écosystème des autres.

Enfin, il est de plus en plus admis que la résilience d’un écosystème peut être soumise à un effet de seuil. Par résilience, on entend la capacité d’un écosystème à continuer à fonctionner dans ses tâches essentielles lorsqu’il est soumis à un choc. L’effet de seuil se matérialise lorsque suite à un choque trop important les dommages subis par l’écosystème sont irréversibles. Par exemple, la surpêche peut affecter irrémédiablement la recomposition d’un stock de poisson. Le problème tient ici du fait qu’il est très difficile de modéliser un stock de poisson car sa fonction est rarement linéaire. De plus, la limite, le point critique (« tipping point ») au-delà duquel l’effet de seuil se matérialise ne peut être connue qu’à posteriori. Dans ces circonstances, il est très difficile d’élaborer des modèles de quotas de pêche optimaux.

Par conséquent, « le management de la nature » est une tâche extrêmement complexe. Nous évoluons dans un contexte d’incertitude permanente, voire d’ignorance. Il est crucial que les responsables politiques comprennent que les risques potentiels d’une perte accélérée  de la biodiversité sont énormes. On ne parle pas ici de risque mécaniques, c’est- à-dire circonscrits et localisés à une part du système. Non, la nature des risques ici est différentes car les écosystèmes présentent des caractéristiques particulières : système dynamique, discontinuités dans la fonction de dommage, points critiques, notamment.

Face à la magnitude potentielle de ces risques il est inconcevable que nous continuons dans le scénario « business as usual » c’est-à-dire d’appliquer une stratégie « apprendre et puis agir » (« learn then act strategy »). Un changement de paradigme s’impose en faveur d’une stratégie « agir en fonction de l’état de  la connaissance scientifique au temps t » . C’est la logique du très controversé principe de précaution : élaborer des stratégies optimales au temps t optimalisées fréquemment en fonction du flux d’information produit par l’expérience, l’observation et la recherche.

L’approche dominante actuelle consiste à monétariser les services rendus par l’environnement. C’était la logique du rapport Stern (2006). Par exemple, la capacité de recyclage du CO2 d’une forêt va être évaluée. Sur base de ces observations (notons ici que les incertitudes sont déjà multiples), on va évaluer la valeur de ce service en calculant son coût économique. La grande question est de savoir la valeur attribuable à la tonne de carbone séquestrée. Sans entrer dans les détails,  on voit ici tout de suite les problèmes posés par la commensurabilité (évaluer des biens et services rendus par l’environnement en termes de flux monétaires).

Cette difficulté tient selon la thèse orthodoxe du fait qu’il n’existe pas de marché pour les services rendus par l’environnement (la purification de l’air par exemple). Par conséquent, les ressources naturelles sont sur-exploitées. D’où une approche dominante qui propose qu’on crée ces marchés en octroyant des droits de propriété sur les biens et services produits par l’environnement. La maxime « battons-nous pour chaque animal aie un propriétaire plutôt pour que les animaux aient des droits » résume assez bien cette approche dont le marché des quotas de CO2 est l’exemple type.

Je remarque que la théorie orthodoxe comporte deux limites, l’une éthique, l’autre touchant à la nature intrinsèque des biens et services rendus par l’environnement. Premièrement, la privatisation de biens environnementaux pose un problème éthique. En effet, l’observateur attentif remarquera que le marché de quota de CO2 constitue une forme de privatisation indirecte de l’air. Par conséquent, la question de la répartition de ces quotas pose des problèmes d’équité. Sans oublier que les pays industriels sont responsables de trois quart des émissions de gaz à effet de serre. Quid de la privatisation de la forêt amazonienne ? Une question de fond se pose donc : les biens environnementaux ne sont-ils pas des biens publics, au sens juridique du terme ?

Deuxièmement,- remarquons que ce second problème se pose avec une acuité bien plus profonde- partant de l’hypothèse que des marchés seraient créés pour les biens et services environnementaux (via l’octroi de droits de propriété par exemple), il n’existe aucune garantie que les dits marchés seraient capables de réaliser l’ allocation optimale de ces ressources.  En d’autres termes, je mets en doute la capacité des marchés, système d’allocation des ressources décentralisé par excellence, à mettre un prix juste sur les biens et services environnementaux. Par « prix juste », j’entends le prix qui induirait une consommation optimale (ni trop, ni trop peu) de ces ressources.

Au cœur du problème, on retrouve notamment le vieux débat sur la valeur marchande et la valeur d’usage d’un bien. Sans entrer dans ce débat, je ferai une observation personnelle : le problème de fond avec les ressources naturelles –renouvelables ou non-renouvelables–  se matérialisant sous forme d’un stock (3) est que le marché est incapable de gérer une situation dans laquelle on se dirige vers l’épuisement irréversible d’une ressource. Par exemple, on peut pomper du pétrole jusqu’à la dernière goûte sans que les marchés ne donnent le signal d’une pénurie. Bien sûr, les marchés sont un indicateurs de la rareté, mais seulement relative, pas absolue. Je m’explique : le coût marginal de production du baril (soit, le coût de production d’un baril supplémentaire) va augmenter progressivement à mesure que le forage sera plus ardu (il faudra pomper plus en profondeur par exemple) et en ce, les prix sont un indicateurs de la rareté relative. Par contre, les prix ne reflètent pas une réalité par rapport à l’état du stock dans l’absolu car il se peut très bien que le coût d’extraction reste relativement  stable jusqu’à l’extraction de la dernière goutte.

Si la déplétion du stock n’était pas irréversible ceci ne poserait pas de problème car il pourrait se recomposer au fil du temps. C’est pourquoi l’introduction de la notion d’effet de seuil  pose cette question : exploitons-nous oui ou non la ressource en deçà du seuil d’irréversibilité ? Si tel n’est pas le cas, la ressource est sur-exploitée. Problème : la limite ne peut être connue à priori.

Ma conclusion, celle qui s’impose et qui nécessairement doit provoquer certaines désillusions, est que dans ces conditions, il apparaît bien illusoire de chercher à domestiquer la nature. Partant de cette observation, je pense que nous devons nous baser sur des indicateurs tangibles pour orienter notre comportement : le réchauffement climatique et la perte accélérée de la biodiversité sont des signaux que nous ne pouvons ignorer. Par conséquent, il est temps d’effectuer la transition vers une économie post-carbone d’une part, et de ralentir la perte de la biodiversité d’autre part. Commençons par arrêter la déforestation et à investir dans les énergies renouvelables.

J’espère vous avoir convaincu au terme de cet article de la vaste tâche qui nous attend. Le problème est d’autant plus complexe qu’il requiert une approche holistique transdisciplinaire.

An Inconvenient Truth II

Le grand public a pu découvrir avec Al Gore, candidat démocrate aux présidentielles de 1999 déchu de la fonction suprême dans des conditions bien occultes, avec une acuité toute particulière, la problématique du réchauffement climatique. Son film, « An Inconvenient Truth », lui vaudra de remporter le prix Nobel de la paix (2007).

Le mérite d’Al Gore est d’avoir placé la problématique climatique à l’avant-plan de l’agenda politique international. Reste qu’un élément central de la discussion n’a pas été abordé : l’explosion démographique, un tabou aujourd’hui encore à peine évoqué dans les cénacles de l’Organisation des Nations Unies (ONU). La faute aux démographes dont la thèse dominante est que les pays industriels ont stabilisé leur population, là où les pays en voie de développement connaissent aujourd’hui une phase de transition. Ainsi, par extrapolation, les pays en voie de développement connaîtront la même évolution future et la population mondiale devrait se stabiliser aux alentours de 9 milliards en 2050.

Premièrement, il convient de noter que cette thèse repose sur le constat que les pays industrialisés ont connu plusieurs « phases », la dernière étant la stabilisation. Ensuite, elle est subordonnée au développement (assimilé à la croissance économique) des pays pauvres. C’est pourquoi elle nous place dans une impasse. En effet, on peut souvent lire que si chaque homme accédait au niveau de vie à l’occidental qu’il nous faudrait de quatre à cinq planètes pour satisfaire à nos besoins (voir le rapport « Planète vivante » du World Wildlife Fund (WWF), 2010).

L’observateur attentif sera avisé de noter qu’une vision bioéconomique sous-tend ce raisonnement : la capacité de l’environnement à accueillir une espèce est limitée (« carrying capacity »). Les écologistes utilisent une courbe de croissance logistique (voir graphe 1) pour décrire le phénomène d’expansion démographique d’une espèce. Selon cette perspective, la croissance démographique d’une espèce dépend de la densité de sa population. Au début, la population croît de façon exponentielle. Ensuite, son taux de croissance tend vers zéro à mesure que la population avoisine la capacité maximale de l’environnement.

Les questions qu’appelle cette observation est de savoir si (1) la population humaine actuelle excède la capacité de l’environnement et (2) si tel est le cas, ce que le futur nous réserve.

Quant à la première interrogation, le rapport Planète vivante 2010 du WWF indique très clairement que l’humanité possède actuellement une dette écologique, c’est-à-dire que nous consommons et produisons chaque année davantage de ressources et de déchets que ce que la biosphère produit et assimile chaque année. Le rapport note que selon les données de 2007, les dernières disponibles, l’Empreinte écologique de la population mondiale excède de 50 % la biocapacité de la Terre, c’est-à-dire la surface actuellement disponible pour produire les ressources renouvelables et absorber le CO2 (on ne parle ici que des ressources renouvelables).

Pour répondre à la seconde question, il nous faut repenser aux travaux de Malthus (1766-1834), le premier économiste (classique) à théoriser l’avenir de l’espèce humaine prise dans sa globalité.  Il prédit que la population augmente de façon exponentielle ou géométrique (par exemple : 1, 2, 4, 8, 16, 32, …) tandis que les ressources croissent de façon arithmétique (1, 2, 3, 4, 5, 6, …). Ainsi, la croissance d’une espèce serait limitée par la productivité des terres agricoles, par conséquent la famine agit comme un mécanisme d’autorégulation lorsque cette limite est dépassée. A noter que le WWF nous parle de limite de capacité de la biosphère, mais le raisonnement est le même : il introduit l’idée de limite à l’expansion de l’activité économique.

Les économistes néoclassiques ont discrédité les thèses pessimistes de Malthus en s’appuyant sur l’observation que les pays industrialisés ont connu une croissance démographique soutenue depuis la révolution industrielle : alors que la terre était un facteur de production considéré par les  classiques (Ricardo par exemple), les néoclassiques ont fini par ne plus considérer que le capital technique (K) et le travail (L) comme facteurs de production. L’argument dominant pour invoquer la caducité des thèses des classiques est que ceux-ci ont omis de prendre en compte le progrès technique. En effet, celui-ci a permis de multiplier le rendement agricole par un facteur important. D’où cette idée, centrale dans les thèses néoclassiques, que le progrès technologique induit par la croissance permet virtuellement de repousser à l’infini la limite naturelle de la productivité des terres et donc la limite à la croissance démographique.

Qu’en est-il ?

Premièrement, les néoclassiques oublient un élément important dans la discussion : le fait que les pays industrialisés ont appuyé (c’est toujours le cas) leur développement sur la colonisation d’autres terres agricoles. La France, la Grande Bretagne par exemple, étaient des empires coloniaux. Par conséquent, la croissance démographique en Europe ne s’est pas faite ceteris paribus, c’est-à-dire avec une quantité fixe de terres exploitables. Le manque de prise en compte du progrès technologique ne peut donc à lui seul discréditer les thèses de Malthus. Ensuite, les néoclassiques oublient une nouvelle fois que si l’histoire semble démontrer une corrélation très forte entre croissance démographique et progrès technologique, que cette relation coïncide avec l’exploitation des ressources fossiles (charbon et pétrole) non renouvelables. En effet, le graphe de l’évolution mondiale de la population depuis les confins de l’humanité (voir graphe 2) montre deux choses : (1) la croissance démographique exponentielle de l’espèce humaine est un phénomène récent ; (2) ce phénomène coïncide avec la révolution industrielle, soit le début de l’ère du Progrès et de la croissance certes, mais aussi et surtout de l’exploitation de ressources fossiles non-renouvelables.

La conclusion qui s’impose: la croissance démographique est fonction de notre capacité à exploiter de l’énergie. L’humanité a connu trois phases jusqu’ici (voir graphe 2) (Common et Stagl 2005). La première, la plus longue (99pc), est celle du chasseur-cueilleur. Durant cette phase, l’homme est nomade, il utilise des objets rudimentaires lui permettant d’accroître sa puissance, son exploitation d’énergie. C’est ce qui nous distingue des animaux : alors que ceux-ci usent uniquement d’énergie endosomatique, c’est-à-dire produite  avec leur corps à travers la consommation de nourriture, nous sommes capables d’exploiter de l’énergie exosomatique, c’est-à-dire produite à l’extérieur de nos membres (le feu par exemple). Dans cette perspective, le progrès technique est le prolongement de nos membres. Durant cette première phase, l’homme n’utilisait qu’un Equivalent d’Energie Humaine (EEH), une mesure équivalente à la quantité d’énergie somatique requise pour faire fonctionner un métabolisme humain quotidiennement (10Mj/jour en moyenne). La seconde phase est amorcée par la révolution agricole : l’homme se sédentarise, il devient alors capable d’exploiter 2-3 EEH en plus chaque jour. Ainsi, l’énergie par humain a presque doublé durant cette phase (2-3 EEH +  1EEH = 4EEH), ce qui s’est accompagné par une croissance démographique importante (multiplication par le facteur 200 environ.) Enfin, la troisième phase est amorcée par le révolution industrielle qui se caractérise par l’exploitation de ressources située dans la lithosphère, soit sous la surface de la terre. Avec l’exploitation du pétrole et du charbon, l’homme devient alors capable d’exploiter jusqu’à 93 HEE par individu (USA, 1997). Toutefois, les variations entre les pays sont énormes puisque le Bangladesh exploite à cette époque 4 EEH en moyenne par habitant. Toujours est-il que la population mondiale augmente de 0.9 milliards en 1800 à plus de 6milliards maintenant. On peut parler d’explosion démographique donc, un phénomène récent. D’ailleurs, il est intéressant de noter que tenant compte de la population globale, chaque humain utilise 20HEE (il s’agit d’une moyenne ne tenant pas compte des disparités socio-économiques), soit plus ou moins un cinquième de la consommation des Etats-Unis. Ainsi, pour produire uniquement avec des humains ce que nous produisons actuellement avec des machines, il faudrait que la population mondiale soit multipliée par 20 ! Soit, 120 milliards d’humains en plus.

Nous sommes donc accro à l’énergie et la croissance démographique semble dépendre de notre capacité à augmenter l’exploitation d’énergie exosomatique. Dès lors que cette relation se vérifierait, une conclusion s’impose dans la discussion : l’explosion démographique que le monde connait depuis 1800 est rendue possible par l’exploitation de ressources naturelles non renouvelables. On peut s’attendre à ce que la croissance démographique cesse lorsque le stock de ces ressources entrera en déplétion dès lors que nous serions incapables de continuer à augmenter notre exploitation d’énergie exosomatique. Plus grave, la relation s’inversera si l’exploitation de cette énergie diminue, une hypothèse plus que réaliste. En effet, le stock de ressources pétrolières entre en déplétion. Le charbon, le nucléaire et le gaz pourront remplacer le pétrole, mais pour combien de temps et à quel prix? Sachant qu’il est traditionnellement établi que trois facteurs régulent une population, à savoir, la famine, la guerre et la maladie, – J’ajouterais les catastrophes écologiques induites par la pollution. En effet, remarquons qu’une exploitation grandissante d’énergie (avec l’exploitation du charbon) se fera au prix d’une augmentation de la pollution – la perspective n’est guère très réjouissante.

Malthus n’a jamais été autant d’actualité, de même que le rapport Meadows et Al. (1972) (ou rapport du club de Rome, le seul modèle connu à ce jour envisageant l’économie dans sa globalité et ayant cette particularité de définir la croissance démographique comme paramètre endogène (c’est-dire comme variable dépendante)).

Il est grand temps de procéder à trois changements radicaux :

1. Stabiliser la population mondiale

2. Investir massivement dans les énergies renouvelables

3. Diminuer notre consommation ABSOLUE d’énergie

J’entends déjà le lecteur murmurer : « oui, mais la fusion nucléaire va nous sauver ». Oui bon, en attendant le miracle, jetez un coup d’œil aux prévisions de croissance de la demande mondiale d’énergie …

Et si les énergies fossiles nous permettaient de maintenir une croissance démographique artificielle?

Source :

M., Common, S., Stagl (2005). Ecological Economics. An introduction: cambridge university press , 560p.

Charbon propre : LA solution pour l’après pétrole?

Il est une réalité trop souvent occultée dans le débat sur le pic pétrolier  (voir articles : « pic pétrolier et ère postindustrielle : comment le monde industriel est entré en décroissance » ; « La fin du pétrole ») et plus largement, sur la décroissance : de nouvelles technologies de captage du CO2 émis par le charbon seront bientôt au point. Le procédé consiste à capter les rejets de gaz à la source et à les enfouir dans la terre.

La thèse officielle (de l’agence mondiale pour l’énergie) estime qu’en se basant sur le scénario business-as-usual que les réserves disponibles –et ce malgré les différences de qualité pouvant exister entre les différents types de charbon –peuvent assurer les besoins en énergies pour les 200 ans à venir (1). Plus que le nucléaire ou le gaz, le charbon propre apparaît donc comme LA solution d’avenir, le seul échappatoire face au problème de la déplétion du stock de ressources pétrolières.

Qu’en est-il ?

La question est loin d’être anodine. Car si nous pouvons augmenter notre consommation d’énergie sans augmenter les risques de disfonctionnements climatiques, pourquoi se priver de continuer à croître ? En effet, nonobstant l’hypothèse que l’enfouissement du  CO2 peut comporter des risques systémiques en cas de fuite massive ou locaux en cas de fuite plus diffuse, les thèses des décroissants, bioéconomistes ou autres spécialistes du pic pétrolier ne sont-elles pas caduques dès lors que le problème de l’augmentation de nos émissions de carbone serait réglé ?

Pour commencer, le fait qu’on puisse substituer le pétrole au charbon, au moins partiellement (il est possible de produire du combustible liquide à base de charbon), ne réfute en rien la thèse selon laquelle la production de charbon connaîtra elle aussi un pic d’Hubbert. Dans cette perspective, le charbon, et c’est là son plus grand mérite, ne serait que l’outil permettant de réaliser la transition vers une économie réellement soutenable, c’est-à-dire viable à très long terme.

Reste que stopper la discussion là serait un peu trop facile. En réalité, le débat sur le climat n’est que la partie émergée de l’iceberg. Dans la perspective bioéconomique (voir articles : la croissance verte : nouveau mythe ?; Transition écologique : reformater la pensée occidentale), l’activité humaine doit s’inscrire dans les limites de la biosphère pour être durable. Le climat est une de ces limites, mais il en existe d’autres comme la biodiversité, le rejet de substances chimiques, l’acidification des océans, la propreté des nappes phréatiques, etc. Le véritable débat, occulté par la perspective d’un futur s’inscrivant dans la continuité du présent rendu possible par la mise sur le marché de technologies permettant de produire du charbon propre, est de savoir si à un moment donné nous ne devrons pas cesser de croître, ceci afin de contenir l’activité humaine dans des limites.

Si l’économie et l’environnement sont interdépendants, ce qui est l’hypothèse de base des bioéconomistes, nous ne pouvons aller au-delà de ces limites sans mettre notre survie en danger. La question est alors de savoir si le progrès technologique peut nous permettre de repousser ces limites à l’infini. Pour que ce soit le cas, il faudrait découpler la croissance de son impact environnemental. En d’autres termes, il faudrait que nous puissions continuer à croître, sans que l’impact physique de l’activité humaine, utilisons le terme « d’emprunte écologique » car c’est un terme qui parle aux gens, ne finisse par détruire irréversiblement la biosphère. Or, précisément, j’ai défendu la thèse dans mon article « la Croissance Verte : nouveau mythe » selon laquelle cette hypothèse d’un découplage absolu est très improbable.

Par conséquent, le charbon propre n’est pas La solution, si on entend par là « le moyen de repousser les limites de la croissance infinie ». Néanmoins, son utilisation comme source d’énergie permettant la transition vers une économie durable, c’est-à-dire s’arc-boutant sur des énergies propres et une rationalisation de l’input de matières premières dans le processus économique, est prometteuse. Reste que cette perspective est subordonnée à une prise de conscience et surtout à l’acceptation du fait qu’il y ait des limites à la croissance, ce qui équivaut à changer de paradigme, de rail de la pensée (voir article : « Transition écologique : reformater la pensée occidentale »). Il est crucial que nous prenions conscience de ceci : nous n’avons pas le choix, si nous voulons éviter le chaos.

Richard Heinberg, auteur de neuf livres sur le pic pétrolier, aborde dans son dernier livre « Blackout: Coal, Climate and the Last Energy Crisis » (2009), la problématique de l’épuisement du charbon. Il commence par y démontrer que la courbe de production du charbon est similaire à celle du pétrole. Ensuite, il situe le pic de production d’Hubbert –le point à partir duquel la production commence à décliner – entre 2025 2040-2060 pour les Etats-Unis (second producteur mondial), et entre 2015 et 2032 pour la Chine (premier producteur mondial), notamment. Ces prévisions contredisent donc les estimations officielles. Heinberg appuie sa thèse principalement sur deux éléments: (1) le rendement énergétique des différents types de charbon est très variable, c’est un élément qui est occulté et (2) les infrastructures nécessaires à l’extraction sont peu performantes (Chine et Inde principalement. Les Etats-Unis souffre en outre d’une absence de réseau ferroviaire pour le transport). Or, cette double observation change la donne car dans un contexte de déclin de la production de pétrole suivi de très près par celui de la production des deux plus gros producteurs, investir dans les technologies permettant de produire du charbon propre  est une perte d’argent et de temps.  En effet, le coût de ces technologies étant exorbitant, si la production plafonne rapidement, elles ne permettrons pas de financer la transition vers des énergies renouvelables. A partir de ces observations, Heinberg envisage trois scénarios pour le futur (2) :

« Business as usual

Dans ce scénario, nous exploitons nous ressource aux maximum, sans prendre aucune mesure autre que symbolique pour compenser leur déclin et lutter contre l’effet de serre. Cherchant à maximiser la croissance nous brûlons des quantités toujours plus grandes de charbon en espérant dégager suffisamment de ressources pour financer une future transition.

Après 30 ans les énergies renouvelables représentent 5% de l’énergie mondiale, la part du nucléaire aura quadruplé après entre 3 et 9 trillons de dollars d’investissement. Il fournira alors 12% de l’énergie mondiale. Au fur et à mesure que le pétrole deviendra plus rare et plus cher, il sera remplacé par des dérivés du charbon. Les véhicules électriques deviendront plus nombreux, augmentant la demande d’électricité, et donc de charbon.

Le marché du charbon deviendra plus intégré et le charbon lui-même plus cher du fait de la hausse des coûts de transports et d’une demande croissante Les mêmes coûts de transports engendreront une relocalisation de l’industrie au profit des pays développés.

Des pénuries de charbon provoqueront de graves problèmes économiques en Chine et en Inde mais les industries occidentales connaîtront une prospérité relative… pour un temps.

Après 2020 la stagnation puis le déclin de la production de charbon, combinée avec le déclin accélérée de la production de gaz et de pétrole touchera les économies occidentales, accélérant la transition vers les technologies de gazéification et de liquéfaction du charbon. Toutes les voitures seront alors électriques et les avions fonctionneront à l’essence synthétique. Le trafic sera cependant très réduit du fait de pénuries chroniques. Les coupures de courant deviendront de plus en plus fréquentes même dans les pays développés du fait des pénuries et du manque de moyens pour entretenir les infrastructures.

Le niveau de vie baissera alors de manière dramatique tandis que les équipement publics se délabreront faute d’entretien. Entre 2030 et 2040, le commerce du charbon cessera presque totalement et la production de pétrole sera devenue marginale et essentiellement consommée sur place. Les investissements dans les énergies renouvelables seront devenus impossibles, faute de moyens. Les infrastructures mal ou pas du tout entretenues s’effondreront tandis que le manque de carburant bloquera les communication. Les coupures d’électricités deviendront la norme et l’activité industrielle disparaîtra progressivement. Seules les nations disposant de ressources fossiles ou d’une solide agriculture de subsistance pourront survivre. Partout ailleurs, l’ordre social disparaîtra et les gouvernements cesseront de fonctionner.

La solution propre

Ce scénario est identique au précédent sauf que les gouvernements s’entendent pour lutter efficacement contre l’effet de serre en investissant massivement dans la séquestration du CO² et les centrales IGCC.

Le coût de ces investissements empêche le développement du nucléaire, dont l’importance ne fait que doubler, et des énergies renouvelables. Le prix de l’électricité augmente beaucoup plus rapidement que dans le premier scénario mais l’évolution générale est la même, l’épuisement des ressources fossiles se poursuivant au même rythme.

Le coût de la lutte contre l’effet de serre associé aux effets du pic pétrolier engendre une longue stagnation économique. La Chine, qui souffre également des pénuries énergétiques chroniques est particulièrement touchée, de même que l’Inde.

Les centrales IGCC et les technologies de séquestration commencent à fonctionner vers 2020 et la production de charbon, qui avait décliné, recommence à augmenter. Le coût de la séquestration est tel que l’énergie nette disponible pour la société continue à diminuer. Les transports deviennent problématiques car le pétrole est de plus en plus rare et les capacités de production d’essence synthétiques restent limitées.

Les difficultés énergétiques de la société s’aggravent, le charbon n’arrivant pas à prendre le relais du pétrole avant son propre pic. Quand l’infrastructure du charbon propre est finalement opérationnelle, la production entre en déclin. Les pénuries se généralisent et la quantité d’énergie nette disponible pour la société ne cesse de baisser. Il est alors trop tard pour investir massivement dans les énergies renouvelables. Les coupures d’électricités deviennent la norme et l’activité industrielle disparaît progressivement. Seules les nations disposant de ressources fossiles ou d’une solide agriculture de subsistance peuvent survivre. Partout ailleurs, l’ordre social disparaît et les gouvernements cessent de fonctionner.

La transition

Dans ce scénario, la planète entière se mobilise pour faire face à l’épuisement des ressources. Les différents gouvernements planifient un abandon progressif des ressources fossiles et de la croissance économique. Ceci implique non seulement une réduction forcée de notre consommation d’énergie mais aussi un retour à une organisation sociale plus adaptée à nos nouvelles ressources. Nos capacités d’investissement sont orientés vers des activités de production plus élémentaires, ce qui, dans certains pays peut signifier un retour à l’agriculture de subsistance et l’inversion de l’urbanisation. Le système de production et de distribution de l’électricité est décentralisé et de plus en plus largement alimentés par des ressources locales et renouvelables. L’électricité est rationnée pendant la phase de transition, de même que l’acier qui doit être utilisé principalement pour construire des voie ferrés plutôt que des bâtiments ou des automobiles. L’essence est réservées aux transports publics et les voyages aériens sévèrement limités.

L’énergie nucléaire est abandonnée sur une durée de 30 ans, les réserves d’uranium s’épuisant rapidement. Les jeunes sont incités à se diriger vers l’agriculture organique tandis que l’agriculture industrielle est découragée.

Cette politique se traduira au départ par une grave crise économique mondiale et un fort taux de chômage qui devra être compensé par une forte solidarité locale. Les gouvernements investissant 10% du PIB dans les énergies renouvelables, il restera peu de ressources pour le reste et le secteur financier se contractera sévèrement. De nombreuses industries disparaîtront. Dans l’ensemble l’économie subira une réorientation similaire à celle qu’a connu l’économie américaine pendant la Seconde Guerre Mondiale.

Après 2020, cependant, ces investissement commenceront à payer et une société plus locale, largement rurale commencera à voir le jour. La population mondiale se stabilisera puis déclinera mais sans s’effondrer. Le réseau de transport sera structuré autour des lignes maritimes et des voies ferrées et le commerce international concernera principalement les matières premières. L’agriculture aura été réorganisée sur une base locale et l’économie mondiale atteindra une nouvelle zone de stabilité strictement encadrée par les limites naturelles ».

Réfléchissez, informez vous, soyez critique.

(1) Pour une étude détaillée du charbon comme source d’énergie future, je vous renvoie à l’étude « Charbon propre : mythe ou réalité ? » du groupe de travail sur le charbon réalisée par le délégué interministériel au développement durable français (2006) : http://lesrapports.ladocumentationfrancaise.fr/BRP/064000671/0000.pdf .

(2) voir sur : D., Perrotin (2009). Richard Heinberg : pic pétrolier et black out. Beta Blog. Disponible sur: http://www.betapolitique.fr/Richard-Heinberg-pic-charbonnier-36023.html?var_recherche=lutter

Nuage de Tags

%d blogueurs aiment cette page :