RADIOPROTECTION
ET DROIT NUCLEAIRE
Entre les contraintes économiques et écologiques,
politiques et éthiques

LITTERATURE

Vladimir VERNADSKY, La Biosphère, préface de Jean-Paul Deléage, Diderot éditeur, Paris, 1997, 284 p.; Vladimir I. Vernadsky, The Biosphere, forward by Lynn Margulis and colleagues, introduction by Jacques Grinevald, translated by David B. Languir, revised by Mark A. S. McMenamin, A Peter N. Nevraumont Book, Copernicus, Spriager-Verlag, New York, 1997, 192 p.; Vladimir I. Vernadsky, La Biosfera, introducción de Ramón Margalef, Fundación Argentaria y Visor, 1997, 218 p.

     En mai 1990, dans l'éditorial du premier numéro de Stratégies Energétiques, Biosphère & Société, qui était alors une publication périodique, nous nous référions expressément à Vernadsky dont Biosfera était paru en russe en 1926 puis, dans une édition augmentée en français en 1929 sous le titre La Biosphère. Dans notre numéro de 1991, Jacques Grinevald a consacré une «Note sur le terme Biosphère» dans laquelle il signalait la polysémie de ce terme et le triomphe en cours de la signification que lui avait donnée Vernadsky dans l'entre-deux-guerres, à savoir, le système écologique global intégrant tous les organismes vivants (les êtres humains aussi bien que les micro-organismes) avec les roches (la lithosphère), l'eau (l'hydrosphère) et l'air (l'atmosphère) dans un métabolisme global qui transforme la Terre en unique «planète vivante» du système solaire. 
     C'est avec une vive satisfaction que nous saluons la publication simultanée de la deuxième édition française de cet ouvrage pionnier et de sa première édition en anglais et en espagnol. Cette simultanéité n'est pas le fait du hasard. L'oeuvre de Vernadsky, et plus particulièrement cet ouvrage, a connu un cheminement obscur que retrace partiellement le grand écologiste anglo-américain George Evelyn Hutchinson dans son livre The Kindly Fruits of the Earth (Yale Uni. Press, New Haven & London, 1979) qui signale que c'est grâce à un certain Petrunkevitch et à George Vernadsky, le fils de Vladimir Vernadsky, tous deux professeurs à Yale dans l'entre-deux-guerres, que lui-même prit connaissance de l'oeuvre de Vernadsky. 

suite:
Raymond Lindeman s'y est également référé en 1942. 

La vie et l'oeuvre de Vernadsky sont présentées par les préfaciers avec leurs charismes respectifs. Tous trois signalent la dette qu'ils ont contractée envers Jacques Grinevald que l'édition américaine présente comme «the world's leading authority on the idea of the biosphere». Les éditions américaine et espagnole comportent une précieuse biographie de Vladimir Vernadsky due à la plume de Jacques Grinevald. On y apprend notamment que ce savant est né le 12 mars 1863 (28 février 1863 du calendrier julien alors en vigueur en Russie) à Saint-Petersbourg, que sa famille s'est installée peu après en Ukraine, que son père était un intellectuel réformiste libéral fort actif, qu'il s'inscrivit à la Faculté de physique et de mathématique de l'Université de Saint-Petersbourg puis, après avoir étudié la cristallographie et la minéralogie à Munich et à Paris, qu' il soutint ses thèses de maîtrise puis de doctorat à l'Université de Moscou qui le nomma privat-docent en 1891, professeur extraordinaire en 1898, enfin professeur ordinaire en 1902. Sa vie est celle d'un scientifique cosmopolite qui partage son temps entre la Russie et l'Europe occidentale, particulièrement la France. 

Sur le plan politique, Vladimir Vernadsky fut l'un des fondateurs et membre du Comité central du Parti constitutionnel démocrate (KD) en 1905 puis Adjoint du Ministre de l'éducation du Gouvernement provisoire de Kerensky au printemps 1917. Fuyant les Bolcheviks en automne 1917, et refusant de prendre part à la guerre civile, c'est à sa qualité de membre de l'Académie des sciences de Saint-Petersbourg et surtout d'éminent spécialiste des ressources naturelles qu'il dut de n'être pas trop inquiété par le nouveau pouvoir. Il poursuivit néanmoins sa carrière scientifique sous le régime communiste qui ne s'opposa pas à ses voyages et séjours à l'étranger jusqu'en 1937, ce qui donne à penser qu'il sut composer avec le pouvoir stalinien. 

 p.369

De 1922 à1925 il enseigna d'ailleurs à l'Université de Paris et publia en 1924 un premier ouvrage en français, La géochimie, chez Félix Alcan. C'est l'époque où apparut le concept de noosphère chez ses amis Edouard Le Roy, le successeur de Bergson au Collège de France, Teilhard de Chardin et lui-même, quoique dans des optiques assez différentes. Si dans La Biosphère, son absence de concessions au matérialisme dialectique, le fameux «diamat », est manifeste, elle est tout à fait évidente dans l'article qui parut à quelques jours de sa mort en janvier 1945 dans le American Scientist sous le titre «The biosphere and the noösphere», article que l'édition espagnole sus-mentionnée a eu l'heureuse idée de reproduire en annexe et, bien sûr, en espagnol. 

L'édition américaine et surtout l'espagnole comportent une bibliographie de et sur Vladimir Vernadsky qui malheureusement fait défaut dans l'édition française laquelle est affligée de regrettables erreurs typographiques, «énergie fibre» apparaissant à trois reprises au moins à la place d'«énergie libre» (pp. 51, 62 et 202), «des farines diverses» en lieu et place de «des formes diverses», etc. De ces trois versions c'est assurément l'espagnole qui est la plus soignée et la plus réussie. Signalons que le Président de la Fondation Argentaria qui en est l'éditeur n'est autre que José Manuel Naredo et que cette Fondation avait publié en 1996 une traduction espagnole du magnum opus de Nicholas Georgescu-Roegen, La ley de entropia y el proceso económico

Ivo Rens, Genève
Vladimir VERNADSKY, Scientific Thought
as a Planetary Phenomenon, A. L. Yanshin and F. I. Yanshina editors and presentators, translation by B. A. Starostin, Nongovernmental Ecological Foundation V. I. Vernadsky, Moscow, 1997,265 p.; Vladimir I. Vernadskij, Der Mensch in der Biosphäre. Zur Naturgeschichte der Vernunft
 (suite)
suite:
herausgegeben von Wolfgang Hofkirchner, Vorwort von Wolfgang Hofkirchner und Rolf Luther, Einleitung von Peter Krüger, Peter Lang, Frankfurt a/Main, Berlin, Bern, New York, 1997, 250 p.

Signalé dans les biobliographies des éditions espagnole et anglaise de La Biosphère, cet ouvrage posthume de Vernadsky ne put paraître en URSS, et bien sûr en russe, dans une version écourtée puis dans son intégralité, qu'en 1977, en 1986 puis en 1988, respectivement, c'est-à-dire essentiellement sous la présidence de Gorbatchev. Rédigé pour l'essentiel en 1937-1938, son auteur l'avait toutefois corrigé et complété pendant les années de la IIe Guerre mondiale. C'est ce que nous apprennent les présentateurs de la première édition en langue anglaise, A. L. Yanshin et F. I. Yanshina. A la lecture de cet ouvrage passionnant, la raison de ce décalage entre l'achèvement de l'oeuvre et sa publication paraît évidente: Vernadsky y dévcloppe en effet une vision du monde, des idées philosophiques, politiques et même religieuses, incompatibles avec le «matérialisme dialectique» et avec le marxisme-léninisme qu'il ne se prive pas de critiquer au passage. 

Les préfaciers de l'édition allemande commentent à juste titre les similitudes ainsi que les divergences caractérisant les concepts de noosphère de Teilhard de Chardin et de Vladimir Vernadsky ainsi que la parenté existant entre la philosophie holistique du Vivant de ce dernier et l'hypothèse Gaïa de James Lovelock et Lynn Margulis. 

La thèse centrale de cet ouvrage réside dans une interprétation originale de l'évolution de la biosphère aboutissant à la formation d'une noosphère commune à l'humanité tout entière: «Une explosion de la pensée scientifique au XXe siècle est préparée par l'histoire entière de la biosphère et s'enracine profondément dans sa structure.» (p. 55) 

p.370

Vladimir Vernadsky date l'apparition de la noosphère - terme dont il attribue la paternité à Edouard Le Roy - à l'extrême fin du XIXe siècle et, pour l'essentiel, au XXe siècle parce que c'est alors seulement que la science se transforma effectivement en force géologique et même cosmique. Cette périodisation étonnante ne tient pas à l'ignorance qu'aurait son auteur des étapes antérieures de la pensée scientifique, comme l'attestent les nombreuses références précises qu'il en donne. 

Quelque stimulant que soit cet ouvrage de Vladimir Vernadsky, sa thèse nous paraît souffrir du manque de distance que sa pénodisation lui imposait. Même dans la perspective de l'émergence de la noosphère dans le droit fil de l'évolution de la biosphère, comment ne pas accorder une importance décisive à l'apparition, assurément difficile à dater, du langage et de l'arithmétique au sein de l'humanité? Comment ne pas distinguer plusieurs étapes dans l'avènement de cette noosphère, telles la naissance de la pensée rationnelle et scientifique dans l'Antiquité grecque, l'apparition de l'imprimerie au XVe siècle, puis la Révolution scientifique du XVIe siècle? Par ailleurs, Vladimir Vernadsky professe de la science une vision idyllique car, écrit-il, «dans son essence la science est profondément démocratique». (p. 118) Bien que critique sur la complicité de nombreux scientifiques dans la tragédie de la Grande guerre, il reste d'un optimisme désarmant sur le rôle à venir de la science. 

Peut-être aurait-il fait montre de moins d'enthousiasme et de plus de circonspection s'il avait vécu et pensé après Hiroshima. 

Ivo Rens, Genève
suite:
Jean-Paul MARÉCHAL, Le rationnel et le raisonnable. L'économie, l'emploi et l'environnement, Presses Universitaires de Rennes, 1997, 181 pages.

Ces dernières années, la réflexion et la recherche en sciences économiques se sont alignées sur le paradigme néoclassique. A la base de ce paradigme, il y a l'idée que le marché et la concurrence permettent d'atteindre l'allocation optimale des ressources, un état dans lequel, selon la célèbre définition de Vilfredo Pareto, «il n'est plus possible d'améliorer le bien-être d'un individu sans détériorer simultanément celui d'un autre individu». D'après cette approche, pour résoudre l'ensemble des problèmes auxquels sont confrontées nos sociétés, notamment les problèmes de l'emploi et de l'environnement, il faut déréglementer l'économie et étendre la logique du marché aux sphères extra-économiques. Les problèmes environnementaux doivent ainsi être appréhendés par le biais de l'internalisation des coûts externes. Cette approche a par ailleurs comporté l'exclusion des sciences humaines de la réflexion économique. En général, les universités ont suivi cette tendance, en prévoyant pour les étudiants une formation presque exclusivement néoclassique et en remplaçant les cours de sciences humaines (philosophie, sociologie, géographie, etc.) par des cours de mathématique et informatique. Question de savoir résoudre les problèmes de maximisation posés par le paradigme néoclassique... 

L'ouvrage de Jean-Paul Maréchal (maître de conférences en sciences économiques à l'Université de Rennes 2) appréhende les problèmes économiques et environnementaux d'un point de vue très différent, et offre une précieuse bouffée d'oxygène aux personnes qui possèdent l'ouverture intellectuelle pour parcourir et découvrir d'autres voies. L'auteur effectue tout d'abord une analyse très approfondie de l'origine de la pensée économique contemporaine et de ses grippages. 

p.371

Il soumet le paradigme néoclassique et les mesures de politique économique qu'il préconise à une analyse critique très serrée. Ensuite, il fournit les «points de repères» pour la construction d'un nouveau paradigme. Il appuie sa réflexion sur la théorie des systèmes complexes. Le fil rouge de l'ouvrage est représenté par la «rationalité économique» et la «rationalité économique élargie» qui, «en intégrant les modes de reproduction des sphères sociale et naturelle, se confond avec le raisonnable». La première caractérise la pensée économique dominante, tandis que la seconde empreint le paradigme de la bioéconomie. L'ouvrage est consacré plus particulièrement à deux problèmes qui sont souvent au centre du débat politique, qu'on a tendance à opposer, l'emploi et l'environnement. Des sections de l'ouvrage sont consacrées à l'analyse de la pensée des grands philosophes, physiciens et économistes du passé. Nous avons ainsi l'opportunité de rencontrer, entre autres, Galilée, Leibniz, Descartes, Smith, Taylor, Malthus, Schumpeter, et les économistes de redécouvrir les sciences humaines et les sciences naturelles. 

Le paradigme esquissé par Maréchal ne possède pas l'élégance formelle du paradigme néoclassique. Contrairement à celui-ci, qui d'une certaine manière a atteint la maturité et a montré ses limites, il offre toutefois un programme de recherche ambitieux, créatif, interdisciplinaire, qui interpelle inévitablement tous les jeunes chercheurs. Contrairement au paradigme néoclassique, il ne représente pas non plus le support idéologique de ce mouvement de globalisation et de libéralisation qui est en train de bouleverser l'économie mondiale. Il offre cependant une approche et des réflexions nouvelles aux personnes qui dans la société tentent de trouver des solutions originales aux problèmes socio-économiques et environnementaux de cette fin de siècle. 

Franco Romerio, Genève
suite:
Evandro AGAZZI, Das Gute, das Böse und die Wissenschaft. Die ethische Dimension der wissenschaftlich- technologischen Unternehmung, traduit de l'italien par Harald Stücker, Akademie Verlag, Berlin, 1995.

L'auteur de cette recension est physicien engagé dans la théorie de la matière, cosignataire de la lettre ouverte de 1300 collaborateurs du CERN de novembre 1976 contre le projet du surrégénérateur Superphénix et membre fondateur, avec Denis de Rougemont et d'autres, de l'Appel de Genève datant d'octobre 1978, dont le programme revêt une certaine importance pour les lignes qui suivent. 

Evandro Agazzi est mondialement connu pour ses oeuvres en logique et en philosophie des mathématiques et de la physique; mais il est aussi auteur de travaux sur l'éthique fondamentale ainsi que celle des sciences et de la technologie. 

Le livre passé en revue ici est très dense, fort de plus de 300 pages, étoffé de plus de 12 pages de bibliographie en plus de nombreuses références approfondies. Il reflète un certain optimisme caractéristique de l'auteur qui s'exprime, par exemple, dans ce passage tiré de l'Introduction (p. 15): «Sans doute, science et technique sont bonnes, mais pas inconditionnellement bonnes, et on ne peut pas nier que leur développement (surtout très récemment) comporte de multiples aspects négatifs.» L'ouvrage est organisé en deux parties principales: 

1. Le monde de la science et de la technique
Les deux questions fondamentales concernant la technologie sont, selon Agazzi, si elle peut avoir des prétentions d'une part à l'absolu et d'autre part à la neutralité. A la première, Agazzi répond par la négative avec le syllogisme suivant (p. 125): Pour agir dans le monde, l'homme a besoin de poser des buts. Mais, dit-il, la technologie «ne déclare pas de buts» ou est indifférente aux buts, ce qui exclut une prétention à l'absolu. 

p.372

Naturellement, il est facile de montrer par des contre-exemples que la technologie peut très bien avoir des buts. La fusion, par exemple, est l'un d'eux, déclaré depuis au moins 40 ans. Cependant, si je le comprends bien, Agazzi ne pense pas ici à des buts déclarés mais plutôt au progrès technologique en tant qu'automatisme inhérent à sa dynamique. 

En revanche, cet automatisme empirique rend la technologie vulnérable à ce qu'Agazzi aborde dans la seconde partie, à savoir à des feedbacks ou à l'influence de l'entourage (p. 132) et, en particulier, à l'opinion publique. Comme exemple je note l'alarme à travers le monde provoqué par la découverte du trou d'ozone dans l'atmosphère qui a engendré, d'une part l'examen d'autres procédés de réfrigération (tel celui d'Einstein et Szillard) et, d'autre part, l'application du laser pour l'analyse de l'atmosphère. 
Le caractère empirique du discours scientifique a, selon Agazzi, pour effet l'évacuation de sens (Sinnentleerung) de l'éthique, car les valeurs qui sont la clé de la morale - le bon, le mal, le devoir, etc. - ne sont pas empiriques mais qualitatives. La conséquence en est que l'homme subit un appauvrissement en être en même temps qu'il gagne un enrichissement en savoir faire (p. 129). C'est le sort de Faust! 

Quant à la non-neutralité du système scientifique - technologique, c'était le reproche du marxisme au capitalisme de corrompre la technologie par le capital. C'est aussi la caractéristique des lobbies du néo-libéralisme actuel. Mais, selon Agazzi, la non-neutralité est plus profonde elle consiste en une influence sur toutes les formes de la vie et des croyances (p. 131). Par ailleurs cette influence favorise en même temps la neutralité morale (par rapport aux valeurs). 
Les réactions philosophiques, écologistes, etc. jouent, selon Agazzi, le rôle de mise en garde comparable à une fièvre. Et la question éthique qui s'ensuit est paradigmatique: que faire? (p. 133). Cette question montre bien la perplexité de l'auteur. Quant à la réponse, Agazzi la réserve à la seconde partie. 

 (suite)
suite:
2. La rencontre avec la dimension éthique
Les conséquences dramatiques de la technologie suscitent la peur et conduisent à une réaction anti-scientifique, aboutissant au scientisme et à l'irrationnel. Mais, d'autre part, elles font appel à la responsabilité des scientifiques (p. 218). L'ouvrage de Hans Jonas - Das Prinzip Verantwortung - est, selon Agazzi, le résutat de la peur: le mal créé par l'homo faber appelle la moralité de l'action. C'est une éthique de conviction qui est purement individuelle. Pourtant, ce qu'il faut aujourd'hui, c'est une éthique de la responsabilité qui concerne toute une communauté subissant un même sort. Celle-là est donc de nature sociale. 

Le problème de l'éthique est compliqué par le fait qu'il peut y avoir conflit de valeurs à cause de la complexité du monde technique (p 222). Les exemples bien connus sont l'énergie nucléaire, l'industrie chimique, la bio-technologie. Agazzi a raison en constatant que la responsabilité exige la réparation des dommages (p. 225). Mais ce n'est pas tout car la technique engendre des risques ayant souvent des conséquences irréparables tel le trou d'ozone. 

Tandis que, selon Kant, les mathématiques et la physique font partie de la raison pure, caractérisée par l'intuition (Anschauung), l'éthique, elle, découle de la raison pratique (p. 113), caractérisée par la liberté. Mais, selon Agazzi, la technique remplace la raison pratique par une raison qui lui est propre, la raison technologique réduisant ainsi le raisonnement moral à un risk assessment (p. 228). De façon générale, la technique est une tentative d'élimination du risque (mais pas du mal!). 

L'homme est capable de prendre des risques en tant qu'homo faber mais il est soumis au risque en tant que créature limitée (p. 230). Pour Agazzi, le risque, comme la liberté ou la rationalité, sont une catégorie anthropologique et sont donc de nature qualitative. Plus fondamentalement, la liberté de choix et de décisions implique un risque existentiel de l'homme (p. 232). C'cst toujours un pari. 

p.373

Cependant, face à la technologie ce n'est plus le risque existentiel individuel mais le risque collectif qui est au centre des préoccupations. Agazzi écrit (p. 257): «Il n'est pas correct d'utiliser le spectre d'un accident majeur comme argument de principe contre le nucléaire. On doit examiner, dans les détails d'une analyse concrète, si nous nous trouvons encore dans la situation dans laquelle nous tenons le risque sous contrôle ou non». 

La méthode que propose Agazzi pour cette analyse est le point de vue systémique (p. 259) qui opère avec les notions input, output, feedback et optimisation. Il s'agit donc d'une méthode quantitative. Le rôle de l'éthique devient alors problématique: doit-elle être conçue comme une science d'orientation, en opposition à la science d'ordonnance qu'est la technologie? Agazzi propose la discussion dialectique selon le modèle de Platon et Aristote, une discussion impassible et rationnelle, basée sur une expérience des valeurs (Werterfahrung) et sur la liberté. 

Agazzi stipule alors une vue systémique de l'éthique (p. 313): «[...]je suis convaincu que l'éthique, si elle veut être satisfaisante, doit comporter les caractéristiques de structuration systémique. [...] Si l'éthique doit jouer le rôle que nous lui avons assigné (instructions engageantes à fournir pour des actions humaines), il est nécessaire que 1) sa fonction soit explicitement reconnue à l'intérieur du système global, que 2) les réactions de feedback entre le système éthique et les autres sous-systèmes soient réactivées de façon appropriée et que 3) le système éthique soit emmené à un meilleur fonctionnement.» 

Le discours précis et approfondi d'Evandro Agazzi est, certes, impressionnant. Quant aux conclusions, je partage son point de vue d'une discussion dialectique selon le modèle de Platon et Aristote. En effet, le programme de l'Appel de Genève participe de cette méthode. En revanche, Agazzi me semble succomber à la magie du nombre quant il écrit que «l'éthique [...] doit comporter les caractéristiques de structuration systémique». 

suite:
Le point de vue systémique est un procédé quantitatif. Réduire les questions éthiques à des quantités revient, me semble-t-il, à une banalisation du mal. 

C'est précisément parce que le discours sur l'éthique de la technologie ne peut être que qualitatif qu'«un débat public et la consultation des populations concernées sur les solutions de rechange» à une mégatechnologie, comme l'a proclamé l'Appel de Genève, est possible. Car les experts de la technologie, eux, sont totalement prisonniers de leurs scénarios, pour lesquels ils calculent des probabilités. Toutefois aucun de ces scénarios ne fait intervenir l'homme libre d'effectuer une fausse manoeuvre, comme à Tchernobyl, ou l'imprévisible comme la rupture de l'enceinte de confinement d'un réacteur ou de l'enveloppe d'un supertanker ou encore l'échappement d'un virus dangereux d'un laboratoire. Finalement ce sont des facteurs irrationnels tels l'homme et l'imprévu, avant même les mathématiques, qui rendent tout calcul de probabilités caduc 

Dès lors il apparait évident que le citoyen est un meilleur juge que l'expert. Seulement, «un débat public et la consultation des populations concernées» ne garantissent malheureusement pas encore des décisions favorables au bien d'une communauté. Le problème vient de la puissance financière des mégatechnologies. C'est la non-neutralité du capital critiquée par les marxistes. Pour parer à ce danger il faut donc que le citoyen concerné soit aussi vigilant et organisé dans un groupe, par exemple un parti politique. Et cette organisation est d'autant plus nécessaire que le degré démocratique du système politique est faible. 

En conclusion, l'optimisme de l'approche quantitative des technocrates, avec laquelle s'identifie Agazzi, ne tient pas debout devant l'analyse qualitative en profondeur représentée, bien que de façon incomplète, par Hans Jonas. Cette analyse étant plutôt pessimiste, elle demande du courage. 

Charles P. Enz, Genève
 p.374

Catherine AUBERTIN et Franck-Dominique VIVIEN, Les enjeux de la biodiversité, Economica, coll. Poche Environnement, Paris, 1998, 112p.

A l'image de la destruction de la couche d'ozone, des pluies acides ou de l'effet de serre, l'érosion de la diversité biologique constitue un problème écologique global auquel la Conférence de Rio (le « Sommet de la Terre» tenu en 1992) a cru apporter une réponse sous la forme d'une convention internationale: la Convention sur la diversité biologique. Or, dans le livre qu'ils nous proposent aujourd'hui, Catherine Aubertin et Franck-Dominique Vivien mettent au jour à la fois les dimensions fondamentales de cette nouvelle atteinte à la biosphère, les enjeux économiques qui s'y rattachent et le caractère profondément réducteur, donc inadapté, de la Convention de 1992. 

La biodiversité - néologisme apparu en 1986 et qui désigne « la propriété qu'ont les systèmes vivants d'être distincts, c'est-à-dire différents, dissemblables» (p. 10) - est souvent analysée à travers le prisme de diversités particulières: la diversité génétique, la diversité spécifique ou la diversité écosystémique. Par ailleurs, l'apparition de ce concept a quasiment coïncidé avec la prise de conscience par les écologues que les écosystèmes, loin de constituer des objets séparés de l'activité de l'homme, loin d'être des milieux vierges que l'activité anthropique ne pouvait que perturber, étaient en fait les produits de l'interaction entre l'agir humain et la nature. D'où la substitution à partir de 1992 de la notion d'«écocomplexe» à celle d'écosystème, un écocomplexe étant un «ensemble complexe de systèmes écologiques interdépendants qui, à l'échelle d'un territoire, est le produit d'une histoire écologique et humaine commune» (p. 17). Inscrit dans une telle perspective, le statut de l'activité humaine, perçue jusque là comme une pure négativité, se trouve revalorisé, l'être humain passant du rôle exclusif de perturbateur de la nature à celui de gestionnaire de l'environnement et, partant, de la biodiversité. 

suite:
L'érosion génétique - qui se manifeste par la disparition annuelle d'un nombre d'espèces compris entre 17'000 et 100'000 - constitue donc, bien plus qu'une simple question de «protection de la nature», un véritable enjeu de société engendrant un jeu complexe d'acteurs où interagissent bien sûr les savants et les politiques, mais où l'un des principaux rôles est tenu par le monde industriel qui est parvenu à imposer sa représentation du problème. Car les intérêts industriels liés aux biotechnologies sont gigantesques dans la mesure où ces dernières constituent un ensemble d'activités nouvelles à application multisectorielle (agriculture, chimie, pharmacie, médecine...). Ainsi, les profits réalisés sur le seul marché des produits du génie génétique et qui sont aujourd'hui estimés à une somme comprise entre 20 et 30 milliards de dollars devraient atteindre 110 milliards en 2005 (p. 28). Dans le domaine de la recherche en biotechnologie agricole (où s'exerce désormais un quasi-monopole des firmes américaines) on assiste à une recomposition au profit de l'industrie chimique. En effet, exigeant en raison de leur fragilité une protection chimique toujours plus poussée, les plantes génétiquement modifiées se voient incorporer des gènes de résistance aux pesticides. D'où une interdépendance toujours plus poussée entre production de semences et production d'herbicides. 

Or, la Convention de 1992, loin de prendre en compte l'aspect multidimensionnel de la question de la biodiversité, le ramène à un simple problème de ressources, d'une part en proclamant la souveraineté des Etats sur leurs ressources, et donc en délaissant la notion de patrimoine commun de l'humanité, et d'autre part en reconnaissant au FEM (Fonds pour l'environnement mondial) créé en 1990 et dont le mode de financement est autant imprécis que contesté le rôle d'aider les Etats à procéder à des inventaires et à des plans de conservation. 

 p.375

Une telle convention transpose en fait au plan du droit international les recommandations de l'approche ultra-libérale de l'environnement qui voit dans l'absence ou la mauvaise définition des droits de propriété la cause des problèmes d'environnement et donc celle de l'érosion de la biodiversité. Ainsi, le seul débat qu'autorise la Convention de 1992 est celui de l'alternative entre propriété privée et propriété publique. En effet, les Etats peuvent disposer de leur biodiversité mais sont obligés de reconnaître la légitimité des dépôts de brevets émanant de firmes privées. Quant à la préservation des écosystèmes, elle est ramenée à un additif aux projets de développement des pays pris en charge par le FEM. Comme le résument les auteurs, «la définition de la biodiversité comme totalité du monde vivant à conserver pour elle-même est délaissée au profit d'une approche utilitariste» (p. 49). 

Au-delà des nombreuses informations qu'il recèle, Les enjeux de la biodiversité est un ouvrage qui met parfaitement en lumière, à partir d'un objet précis d'une importance capitale, la dérive utilitariste dont sont victimes nos sociétés. 

Jean-Paul Maréchal, Rennes

 

Lester BROWN, ed., Christopher FLAVIN, Hilary FRENCH, State of the World 1997, W.W. Norton and Company, New York, London; éd. fr. L'état de la planète 1997, Economica, Paris.

Dans leur préface, les éditeurs saluent l'engagement de ceux qui permettent que le rapport annuel State of the World, soit publié cette année en vingt-sept langues. Signalons que c'est à l'initiative du Président roumain actuel, M. Ion Iliescu, alors qu'il dirigeait une petite maison d'édition dans son pays, que l'édition roumaine vit le jour. Pour l'édition française, on regrettera l'abandon, cette année encore, des notes et de l'index, 50 pages fort utiles dans la version originale. 

 (suite)
suite:
On est surpris de voir un éditeur de renom vider ainsi de son contenu scientifique le rapport annuel du «Worldwatch». 

State of the World 1997 ou pour l'édition française L'état de la planète 1997, quatorzième édition du rapport annuel du «Worldwatch Institute», délaisse quelque peu les sujets traditionnels - l'énergie, les transports -pour se pencher sur la Biosphère de/dans laquelle nous vivons. Janet N. Abramovitz insiste tout particulièrement sur cette approche holistique. Son chapitre, «Apprécier les services rendus par la nature» aborde les «services rendus gratuitement par la nature» et formant la «base invisible» de nos sociétés et de nos économies humaines. Selon l'auteur, l'intérêt du maintien et de la préservation «des services rendus par la nature», est incontestable, même d'un point de vue strictement économique. Elle prend pour exemples, parmi d'autres: 

- Aujourd'hui menacé par la pollution, le bassin hydrographique en amont de la ville de New York filtre et nettoie l'eau pour dix millions de personnes. La construction d'usines d'épuration pour traiter l'eau était évaluée à sept milliards de dollars. La ville prit plutôt la décision d'investir le dixième de cette somme pour aider les comtés en amont à protéger leur bassin hydrographique d'où New York puise son eau. 

- La restauration de simplement la moitié des zones naturelles humides du bassin du Mississippi pourrait prévenir une inondation de la magnitude du désastre de 1993. Cette restauration ne toucherait que 3 % des terres de la région. 

- Au Bangladesh, l'exportation de cuisses de grenouilles qui connut un boom dans les années soixante-dix et quatre-vingt a mené à un déclin rapide de la population de l'animal amphibien, favorisant une augmentation des insectes s'attaquant aux récoltes, ainsi qu'une recrudescence de maladies prenant naissance dans les milieux aquatiques. 

p.376

En 1989, le Bangladesh dépensait trois fois plus en pesticides que ne rapportait l'exportation des cuisses de grenouilles. Or, un an après l'interdiction de leur exportation, la population de l'animal se redresse (ainsi que les services qu'il rend), tandis que l'importation de pesticides chute entre 30 et 40 %. 

Dans le même ordre d'idées, Chris Bright et Michael Renner abordent, respectivement, les effets du réchauffement climatique planétaire et la nécessité, pour les responsables politiques, de redéfinir le concept de sécurité. 

Se référant au rapport du Groupe intergouvernemental d'experts des Nations Unies sur l'évolution du climat (IPCC), Bright rappelle que le cycle hydrographique tendra à augmenter le volume d'eau des précipitations, mais que ces précipitations supplémentaires ne seront pas uniformément distribuées. Si les modèles d'évolution du climat ne sont pas suffisamment précis pour définir dans le détail sur une carte les chutes de pluies, ils font généralement ressortir que plusieurs régions seront plus sèches, particulièrement celles déjà sujettes à des sécheresses, tandis que d'autres régions déjà humides le seront davantage. Dans le temps, les précipitations seront vraisemblablement plus inégales, concentrées en de violentes averses. L'une des manifestations les plus significatives du changement climatique dans les «communautés de plantes» au niveau international, pourrait être l'invasion de plantes «exotiques» ou non indigènes - des espèce qui, pour une raison ou pour une autre, peuvent profiter des nouvelles conditions climatiques. Les plantes exotiques peuvent être dangereuses, car elles arrivent souvent dans un nouvel habitat où sont absentes des maladies maintenant leur population en équilibre. Leurs nouveaux voisins peuvent ne pas posséder les défenses permettant de les garder à distance. Ainsi, alors que les invasions exotiques peuvent sembler une «bonne» chose pour la biodiversité, à long terme elles se traduisent habituellement par une diminution des espèces en présence. 

Michael Renner propose de transformer le concept de sécurité. 

suite:
Selon lui, on est aux portes d'une nouvelle ère d'insécurité se caractérisant par la désintégration de l'Etat nation, l'apparition de pressions environnementales et sociales, l'émigration de populations entières. Des affrontements entre groupes de type guérilla, entre forces paramilitaires, entre armées privées, remplacent les affrontements traditionnels entre armées nationales. Les civils ne sont plus des victimes accidentelles de ces groupes, mais leur cible explicite. Pour Renner l'insécurité vient souvent de désastres écologiques provoqués par l'homme (mer d'Aral par exemple), mais aussi d'une mauvaise redistribution des richesses (Chiapas). En résumé, la sécurité passera à l'avenir moins par les armes et le déploiement de troupes et davantage par le renforcement du tissu social et l'équilibre environnemental. 

Parmi les autres chapitres, notons «L'héritage de Rio» dans lequel Christopher Flavin rappelle que nous sommes loin d'avoir atteint les objectifs de la conférence historique sur l'environnement: la proportion de dioxyde de carbone n'a jamais été aussi élevée dans l'atmosphère; la population mondiale a crû de 450 millions de personnes depuis l'événement... Pourtant des progrès ont lieu, souvent sur des questions débattues de longue date. Dans la plupart des pays industrialisés, par exemple, les pollutions de l'eau et de l'air sont moins sévères que lors de la Conférence de Stockholm sur l'Environnement humain en 1972. Aujourd'hui, de nombreux pays en développement ont des lois sur la pollution de l'air et l'usage de l'essence sans plomb se généralise. 

Parmi les autres chapitres, on notera celui de Lester R Brown, président-fondateur du «Worldwatch Institute» dont les analyses sur «Les perspectives de pénurie alimentaire dans le monde» - qualifiées de catastrophistes et de malthusiennes par les uns, de prophétiques ou de simplement scientifiques par les autres -  sont débattues de Beijing à Rome en passant par Genève, ou encore, dans une revue d'audience internationale comme The Economist

 p.377

On notera également les chapitres de Anne Platt McGinn «La prévention des maladies chroniques dans les pays en développement» et «Réformer la pratique des subventions» de David Malin Roodman. 

Enfin «Les leçons de l'expérience de l'ozone» de Hilary F. French relate la négociation exemplaire qui mena la communauté internationale au Protocole de Montréal. Exemplaire, parce les signataires instaurèrent des contrôles internationaux sur les CFC dès la fin des années soixante-dix, alors que des preuves concrètes des effets destructeurs du gaz n'avaient pas encore été apportées - une perte de 40 % de l'ozone stratosphérique au-dessus de l'Antarctique entre septembre et octobre 1984, c'est-à-dire le fameux trou dans la couche d'ozone, n'est annoncée par la «British Antarctica Survey» qu'en mai 1985. Pourtant, dès l'annonce de découvertes théoriques menant à l'hypothèse selon laquelle les CFC pourraient détruire la couche d'ozone stratosphérique - une hypothèse émise par les futurs Prix Nobel de chimie Molina et Rowland dans Nature en 1974- le Canada, la Norvège, la Suède et les Etats-Unis s'engagèrent à interdire l'usage des CFC dans les aérosols. L'application du principe de précaution s'avéra plus que justifié. Rejoignant Michael Renner, French conclut: «Dans l'avenir, les historiens considéreront peut-être la signature du Protocole de Montréal en 1987 comme un événement clé, un point dans l'histoire où il est devenu évident que la définition même de la sécurité internationale avait fondamentalement changé.» Grâce à ses publications, l'«Institut Worldwatch» participe à ce changement de paradigme. 

Benoît Lambert, Genève
 (suite)
suite:
Theo COLBORN, Diane DUMANOVSKI, John PETERSON MYERS, L'homme en voie de disparition?, éd. Terre Vivante; édition originale, Our Stolen Future: Are we Threatening our Fertility, Intelligence, and Survival? - A Scientifie Detective Story.

L'homme en voie de disparition? est une suite percutante à l'ouvrage historique de la biologiste et océanographe américaine Rachel Carson, Silent Spring (1962) (Le printemps silencieux). L'industrie de la chimie de synthèse s'y trouvait accusée de perpétrer un véritable biocide, en particulier par l'épandage de pesticides durables. Aujourd'hui l'ouvrage est considéré par plusieurs comme l'acte de naissance de l'écologie politique. Les produits incriminés, le DDT en particulier, ont été interdits d'usage depuis dans les pays occidentaux. Dans Printemps silencieux, Carson avait placé les insecticides persistants en tête de sa liste noire. Mais elle n'avait pas pensé y inclure les PCB, qui ne sont pas forcément très toxiques en termes habituels de décès et de cancers, mais sont néanmoins persistants, propriété dont on ne prit conscience qu'en 1966, quatre ans après la publication du livre. Or certains PCB sont maintenant interdits et sont sérieusement mis en cause dans l'ouvrage de Theo Colborn, docteur en zoologie travaillant pour le WWF, de Dianne Dumanoski, membre de la Confrérie des journalistes scientifiques auprès du MIT, et de John Peterson Myers, également docteur en zoologie, aujourd'hui directeur de la Fondation W. Alton Jones après avoir été vice-président en charge de la science à la Société Audubon, la plus grande association naturaliste d'Amérique du Nord. 

Dans un style moins littéraire, moins vitriolé que celui de Rachel Carson - mais qui constitue néanmoins un chef-d'oeuvre de vulgarisation scientifique - les auteurs de L'homme en voie de disparition? révèlent que, forçant la barrière du placenta, les perturbateurs chimiques s'attaquent au fragile équilibre hormonal du foetus et peuvent hypothéquer définitivement son développement sexuel, la mise en place de son système nerveux et l'efficacité de ses défenses immunitaires. 

p.378

La découverte est inquiétante: biologiste, vom Saal a démontré que de petites variations dans les échanges hormonaux avant la naissance, peuvent avoir des conséquences pour le reste de la vie. Les différences de comportement et de reproduction chez les souris peuvent être prédites, avec une précision remarquable, d'après leur position dans l'utérus. Conditionnées par leur degré d'exposition à la testostérone, les femelles se trouvant entre deux mâles ont un comportement plus agressif et se reproduisent moins que leurs soeurs. 

Des différences profondes de comportement qui reposent sur des écarts infimes: 35 parties par billion d'oetradiol et de une partie par milliard de testostérone. En d'autres mots, l'une a reçu 135 gouttes de gin pour 1000 wagons-citernes, tandis que sa soeur en a reçu 100. Un tel degré de sensibilité, proche de l'incommensurable, est selon vom Saal «au-delà de tout ce que l'on peut imaginer». Si cela permet de produire une grande variété d'individus à partir du même patrimoine génétique, le système est vulnérable à des variations infimes des concentrations hormonales, quelle qu'en soit l'origine. Cette possibilité effrayante apparut à vom Saal pour la première fois lorsque Theo Colborn lui téléphona pour parler des produits chimiques à effet hormonal. 

Les travaux de vom Saal ont permis de mettre en lumière les risques que nous font courir les produits chimiques capables de perturber les hormones. Le sexe n'est pas exclusivement une affaire de chromosomes. Comme les tragédies de la thalidomide ou du distilbène; le DDT, les PCB et la dioxine ne sont que quelques-uns des produits chimiques pouvant mener à des modifications hormonales et à des pertes de la fertilité. Problèmes de reproduction chez les phoques, chez les ours polaires, chez les pumas et chez les alligators de Floride: les preuves et les hypothèses attribuant certains déclins d'animaux sauvages aux perturbateurs hormonaux par concentration trophique de produits chimiques dans la graisse animale (ou bioconcentration) ne cessent de s'accumuler. 

suite:
Selon Colborn, Dumanoski et Myers, «l'industrie chimique a apporté confort et commodités à la plupart des foyers occidentaux, mais, en même temps, elle a libéré des dizaines de composés connus pour associer trois propriétés diaboliques: ils sont très stables, volatils et possèdent une affinité particulière pour les graisses». Tous ces composés circulent dans les chaînes alimentaires sur des particules de graisse, ou bien s'évaporent et circulent dans l'atmosphère. Aujourd'hui, de l'Arctique à la Suisse en passant par les plus belles plages du monde, ils se retrouvent partout, en des concentrations démultipliées selon la position d'une espèce dans la chaîne alimentaire: concentration de PCB 250 fois celle de l'eau environnante pour le plancton végétal des Grands Lacs, 48'000'000 pour certaines morues, 3 milliards dans les baleines du Groenland... 

L'homme en voie de disparition? a fait sensation lors de sa parution aux Etats-Unis en 1996, sous le titre Our Stolen Future: are we threatening our fertility, intelligence, and survival? Al Gore, le vice-président des Etats-Unis, connu pour sa sensibilité écologiste, ne s'y est pas trompé en acceptant d'écrire sa préface, dont cette phrase: « L'homme en voie de disparition? reprend le travail là où Rachel Carson s'était arrêtée, et rassemble les preuves scientifiques toujours plus nombreuses qui établissent un lien entre les produits chimiques, les anomalies du développement sexuel et certains problèmes reproductifs et comportementaux ». Au moment ou certains s'interrogent sur les risques du génie génétique, ce livre permet de prendre en compte l'histoire de la chimie de synthèse dans le jugement qu'on porte sur elle. Les histoires à retournement de produits chimiques comme le DDT (prix Nobel), les CFC (prix Pristley, la plus haute récompense de la chimie américaine) ou les PCB, constituent des précédants dont on ne saurait ignorer les leçons. 

Benoît Lambert, Genève
 p.379

Dominique BOURG, Les scenarios de l'écologie, Hachette, Paris, 1996, 142 p.

Alors que la crise écologique s'aggrave et qu'une réorientation des politiques industrielles s'avère de jour en jour plus nécessaire, il devenait urgent de pouvoir faire le point sur les différentes tendances de l'écologie politique. L'ouvrage de Dominique Bourg comble avec clarté, concision et exhaustivité cette lacune. 

Dans un premier chapitre, l'auteur analyse la crise de l'idéologie économique, idéologie qui, ayant recueilli l'héritage des Ecritures, de la chrétienté latine, de la philosophie politique des XVIIe et XVIIe siècles et de la science galiléo-newtonienne, repose sur un nombre réduit de fondements: - l'idée d'une société d'individus (au sens de Louis Dumont), - la valorisation de la production et - la double autonomie de l'économie vis-à-vis tant de la nature que des strates non économiques de la société. Or, l'envolée du chômage et de l'exclusion jointe à la destruction de l'environnement manifestent la crise d'une pratique économique fondée sur une telle vision du monde. Trois réponses, trois «scénarios» sont proposés par l'écologie pour relever le défi posé par les dysfonctionnements de la société technicienne. 

Le premier, dit «fondamentaliste» (deep ecology), dont Aldo Leopold et Arne Naess sont les figures emblématiques, repose sur quatre propositions: - la nature possède une valeur intrinsèque, - l'ordre de la nature s'impose à l'homme, - la nature constitue la valeur suprême et - le droit doit se conformer à l'ordre naturel. Ces quatre postulats se réduisent en fait au principe d'un égalitarisme biocentrique et holiste dont le corrolaire, liberticide, est un rejet de l'anthropocentrisme et de la reconnaissance humaniste de la personne comme valeur suprême. A rejeter par tout démocrate! 

Le deuxième scénario, dit «autoritaire» et auquel est attaché le nom de Hans Jonas, fait fond sur une critique des sciences et des techniques et conduit à une réélaboration de la notion de responsabilité.
 

 (suite)
suite:
Prenant acte de la gravité et de l'étendue temporelle des dommages potentiels résultant de la technoscience, Hans Jonas affirme que nous sommes désormais responsables de l'existence même des générations futures et, dans une certaine mesure, de la perpétuation de la nature, condition de toute vie humaine future. La mise en place d'une telle responsabilité signifierait le gouvernement des experts. Toutefois, l'échec des expertocraties de l'Est et de l'Ouest rend ce scénario assez peu pertinent. 

Le troisième scénario, dit «démocratique», vise à freiner de l'intérieur la dérive des sociétés industrielles, autrement dit tente de concilier les droits individuels de l'homme avec la nécessité de préserver ses conditions d'existence. Les propositions de trois auteurs sont analysées. La «Société conviviale» d'Ivan lllich définie comme une société où l'homme contrôle l'outil. La «Norme du suffisant» d'André Gorz, norme présente dans les sociétés traditionnelles et qui s'oppose à une croissance indéfinie de la production. Enfin, le développement d'une sphère des activités autonomes qui, selon Phillipe Van Parijs, permettrait de remédier aux problèmes posés tant par le modèle libéral que socialiste. 

Un ultime chapitre examine les défis que doit relever l'écologie démocratique et propose pour cela des réflexions sur des thèmes qui vont du développement durable au rapport entre anthropocentrisme et responsabilité en passant par les limites à l'artificialisation. 

L'ouvrage se clôt par un débat entre l'auteur et Jean-Paul Deléage (Directeur de l'excellente revue Ecologie et Politique), débat qui apporte d'utiles précisions par exemple sur la deep ecology ou sur la pensée de Hans Jonas. 

Les scénarios de l'écologie éclaire donc les enjeux philosophiques et politiques de la pensée écologique contemporaine. A lire absolument par tous ceux qui veulent décrypter certains des débats les plus décisifs de cette fin de siècle. 

Jean-Paul Maréchal, Rennes
 p.380

Dominique BOURG, L'homme artifice. Le sens de la technique, Gallimard, coll. Le débat, Paris, 1996, 355 p.

A la différence de maints de ses collègues qui se réfugient dans l'histoire de la philosophie ou dans de petits essais consensuels rivalisant difficilement avec les manuels de terminale, Dominique Bourg est un philosophe qui interroge le monde et risque une pensée sur les grandes questions du moment. Venu de la philosophie du langage (on se souvient de Transcendance et discours. Essai sur la nomination paradoxale de Dieu paru au Cerf en 1985), il consacre désormais sa réflexion à l'environnement (Les sentiments de la nature, La Découverte, 1993 et Les scénarios de l'écologie, Hachette, 1996) et, ce qui lui est lié, à la question de la technique. C'est précisément l'objet de son dernier ouvrage, L'homme artifice paru à l'automne dernier chez Gallimard. 

Pour Dominique Bourg, l'humanité ne saurait être pensée indépendamment de la technique dans la mesure où, comme il l'indique dès l'avant-propos, «l'humanité s'est [...] construite hors d'elle-même, sur le fond d'un édifice exosomatique, artificiel et objectif, c'est-à-dire par la constitution d'un réseau d'artefacts tant linguistiques qu'utilitaires» (p. 9). La technique assurant notre appartenance à la nature tout en nous arrachant à son emprise, la «question de la technique» peut donc être définie comme celle de nos relations à la nature pour autant que celles-ci dépendent des liens que nos artefacts entretiennent et nous permettent d'entretenir avec cette dernière (p. 13). 

Après une première époque qui, s'inscrivant dans le sillage aristotélicien, pense l'homme comme immanent à la nature et une seconde qui, s'ouvrant avec Gaulée, pose la transcendance de celui-là relativement à celle-ci, la période que nous vivons se caractérise par des relations entre technique et nature marquée au sceau de la transcendance et de l'immanence. 

 (suite)
suite:
Nous assistons en effet, sous le double impact de la mise au jour des techniques animales et surtout de l'explosion des technosciences, à un brouillage du lien qui unissait jadis et en apparence clairement, d'une part la technique et d'autre part l'humanité. D'où la thèse de l'autonomie de la technique à laquelle l'auteur réserve la totalité de la première partie. 

Après avoir, dans un premier chapitre traitant des «liaisons dangereuses entre technique et politique», mis en évidence que Jean-Jacques Rousseau et Karl Marx soutiennent qu'il n'est de politique qu'autonome, c'est-à-dire dégagée des effets de la technique - le premier suggérant d'«arrêter si possible le progrès» et le second appelant à un dépassement de la division du travail social -, Dominique Bourg concentre ses attaques les plus vives sur deux représentants (à chacun desquels il réserve un chapitre) de la thèse de l'autonomie de la technique: Martin Heidegger et Jacques Ellul. 

A Martin Heidegger pour qui la technique est un mode de dévoilement de l'étant antérieur à toute décision, autrement dit un envoi de l'Etre origine d'un destin, Dominique Bourg oppose qu'une telle conception fait de l'homme un simple instrument au service de l'Etre et ramène «à une conception tout aussi élémentaire de la politique que de la technique: l'instrumentalité cynique» (p. 79). 

A la condamnation morale que Jacques Ellul adresse à la technique, l'auteur répond en soulignant que l'autonomie ne constitue nullement une caractéristique appartenant en propre à la seule technique, mais ressortit au contraire à l'imprévisibilité des résultats de l'action (p. 102) et que, loin de rétrécir nos libertés, la technique accroît notre domaine d'action et, partant, l'ensemble de nos libertés et de nos responsabilités. La technique apparaît donc dotée, non d'une autonomie absolue, mais d'une simple autonomie relative. 

 p.381

La deuxième partie de l'ouvrage, centrale aux deux sens du mot, est consacrée à l'analyse des rapports entre technique et humanité. 

Dans un premier temps, Dominique Bourg met en évidence le rapport qui unit l'outil et le langage. Il souligne pour cela que l'outil humain, par sa double propriété d'être utilisable à plusieurs reprises et indéfiniment reproductible, se rattache à la catégorie de l'universel. Le mot qui le désigne, mobilisable en toutes circonstances, en assure la pérennité. De plus, la permanence de l'outil permet un arrachement à l'environnement immédiat tandis que sa perfectibilité infinie ouvre la possibilité de penser le monde autrement qu'il n est. Dans un second temps, consacré aux rapports entre la technique et le langage, l'auteur montre, qu'à l'instar de l'outil, le langage humain qui fusionne représentation et communication est simultanément naturel et institué. Par ailleurs, le langage apparaît également comme une technique. En effet, l'exemple des chiffres arabes et de la notation mathématique nous font voir à quel point les progrès de l'esprit peuvent dépendre d'inventions techniques touchant à la manipulation d'images (p. 152). Le langage et l'outil entretiennent donc des relations dialectiques et l'on peut donc penser que «l'aptitude des premiers hommes à manipuler leur environnement, les aurait [...] conduits [...] à développer un langage articulé, et ainsi à démultiplier leurs possibilités tant conceptuelles que manipulatrices» (p. 159). Jacques Ellul et Gilbert Hottois, qui occupent pourtant des positions différentes et extrêmes sur l'échiquier des possibles, supposent donc une humanité naturelle qui n'a jamais vu le jour (p. 170). 

La troisième partie de l'ouvrage est consacrée à l'industrialisation et au recul de la nature. 

Le premier chapitre met en évidence la signification anthropologique du machinisme. Aux deux fondements du lien social traditionnellement invoqués que sont le marché et l'Etat, il convient d'ajouter la technique. En effet, tandis que dans les sociétés pré-industrielles les fonctions et donc les relations sociales se fondent sur une tradition, dans les sociétés industrielles elles reposent sur un ordre extérieur objectif et matériel: l'état des techniques. 

suite:
La mise en synergie de la technique et du marché permet donc de refonder l'ordre social, cette refondation débouchant, au plan professionnel, sur une hiérarchie des compétences et, au plan public, sur une égalité des citoyens, autrement dit, sur l'emboîtement de la technique moderne et des institutions démocratiques (p. 204). Le chapitre se clôt par une réflexion sur les conséquences de la révolution informationnelle. 

Le chapitre suivant est consacré à l'eugénisme dont trois variantes sont passées en revue: celle de Francis Galton selon laquelle il revient à l'Etat de faire prévaloir les lignées humaines les «plus convenables», celle du «nouvel eugénisme» de Robert L. Sinsheimer qui, se fondant sur les découvertes de la biologie moléculaire, ne requiert que «l'assentiment quasi spontané des individus» et celle d'Edward Wilson qui ne vise rien moins qu'à améliorer la nature humaine par création de gènes nouveaux et de fonctions inédites. 

Le troisième chapitre analyse les mutations de l'agriculture contemporaine qui se manifestent tant dans les nouvelles compétences exigées des agriculteurs que dans les rapports que ceux-ci sont amenés à entretenir avec la nature. 

Le dernier chapitre, enfin, fait une analyse critique de l'écologie radicale. Il débute par un examen des différences qui séparent l'anthropocentrisme grec de l'anthropocentrisme judéo-chrétien. Ce dernier, qualifié d'anthropocentrisme d'extériorité, confère à l'homme une exceptionnalité métaphysique qui le rend responsable du monde. En ce qui concerne l'écologie radicale, les critiques de Dominique Bourg ne manquent pas. Selon les adeptes de ce courant, la nature est source de valeurs. Or, souligne l'auteur (et c'est le philosophe du langage qui ici réapparaît), affirmer une telle chose constitue une «contradiction performative» dans la mesure où «les valeurs n'existent que pour autant que nous les reconnaissons; elles n'existent que par l'acte même de leur reconnaissance. En imputer l'origine à la nature, c'est prétendre reconnaître un état de choses indépendant de la nature, lors même qu'on l'institue en l'énonçant.» (p. 331) 

p.382

Par ailleurs, la mise en pratique du programme de l'écologie radicale conduirait à un anthropocentrisme redoublé dans la mesure où, seuls les humains pouvant ester en justice, la nature serait représentée par des humains dans le cadre de procès organisés par des humains. L'anthropocentrisme est donc indépassable et l'auteur appelle à la fondation, non d'un droit de la nature, mais d'un droit pour la nature. 

Philosophe du langage, de la nature, de la technique et du politique, Dominique Bourg, utilisant également une vaste érudition économique et juridique, entrecroise brillamment ces registres pour nous livrer une réflexion originale et impeccablement documentée. Face à l'une des questions les plus urgentes du siècle qui s'achève, il accomplit ainsi une tâche devant laquelle se dérobent tant de ses confrères, donner au monde un surcroît d'intelligibilité. 

Jean-Paul Maréchal, Rennes
  Florence BURGAT, Animal mon prochain, éd. Odile Jacob, Paris, 1997, 254 p.

Si, au sein de la littérature engendrée par l'attention croissante portée à la nature, de nombreux textes s'avèrent malheureusement être de purs exercices de style à visée exclusivement médiatique, il en est heureusement d'autres qui constituent des parcours de pensée dont les auteurs, avec leur intelligence et leur sensibilité, sont présents derrière chaque mot et nous invitent à la découverte de terres philosophiques méconnues bien que frôlées quotidiennement. C'est dans cette deuxième catégorie qu'il convient incontestablement de classer l'ouvrage de Florence Burgat consacré à l'animal ou, plus précisément, aux rapports entre les thématiques de l'animalité, de l'éthique et du droit. 

suite:
L'auteur part du constat que l'animal est systématiquement défini relativement à l'homme selon une «structure privative»; il est sans âme, sans raison, sans conscience... Ce discours, qui pose une différence métaphysique entre l'homme et l'animal, ramène ce dernier au statut d'objet et disqualifie d'emblée toute interrogation éthique à son sujet. L'animal apparaît donc pour le philosophe comme une pure négativité, comme un objet indigne d'intérêt. Dans cette perspective traditionnelle, l'animal se voit donc réifié et, partant, privé de droits. 

Or, la question des droits de l'animal, quelle que soit la réponse que l'on y apporte, mérite un examen attentif. Il existe en effet deux approches et donc deux fondements au droit naturel. Selon la première, le droit naturel désigne «l'ensemble des devoirs que me dicte ma raison envers les êtres raisonnables» (p. 33). Cette approche anthropocentrée fait fond sur la dignité métaphysique que confère à l'homme l'usage de la raison. A cette première conception selon laquelle seuls les êtres doués de raison, en fait les hommes, peuvent bénéficier de droits naturels s'oppose une seconde conception selon laquelle le droit naturel englobe la totalité des êtres vivants sensibles (c'est-à-dire dotés d'un système nerveux) indépendamment d'une éventuelle capacité intellectuelle. Cette deuxième approche qui échange la raison contre la sensibilité et fonde ainsi le droit naturel non sur la maîtrise ou la possession d'un langage mais sur la capacité à souffrir, inclut naturellement l'animal dont on ne peut pas nier qu'il puisse ressentir de la souffrance même si cette dernière nous demeure mystérieuse. Dans le cadre de cette approche que l'on peut qualifier de «pathocentrique» et qui s'enracine également dans l'utilitarisme d'un Peter Singer selon laquelle tous les êtres vivants ont un intérêt fondamental à ne pas souffrir, l'animal doit donc se voir conféré des droits qui n'ont bien sûr rien à voir avec certains droits conférés aux humains et qui sont par exemple le droit de ne pas être soumis à des mauvais traitements ou à des actes cruels, de ne pas être massacrés, pour les animaux sauvages ou encore d'être soignés, pour les animaux domestiques (pp. 58-60). 

p.383

Il s'agit donc de reconsidérer les fondements de l'éthique à la lumière d'une ontologie renouvelée qui ne soit plus celle «qui s'articule autour de la ligne de partage instaurée par la métaphysique du sujet» (p. 70). En effet, «si l'homme demeure le sujet de l'énonciation de la morale et du droit, il lui faut rompre avec "l'humanisme chauvin" qui se réservant le "monopole de l'altérité", déclare l'homme seul respectable comme autre» (p. 70). 

Le fondement de la morale doit donc reposer sur la pitié, cadre dans lequel la maxime de mon action est dictée par une expérience pure de toute argumentation (p. 213) et dont l'origine serait innée. Florence Burgat reprend ici le débat qui oppose d'une part Kant, qui fonde la morale dans des concepts purs a priori, vides de tout contenu, et d'autre part Rousseau et Schopenhauer pour qui la pitié est le fondement de la morale dans la mesure où elle permet une identification avec l'autre au-delà même de la barrière de l'espèce. 

Comme on le voit, le livre de Florence Burgat tout à la fois élargit notre regard et nous inquiète en déstabilisant des catégories que l'on croyait définitivement établies. Par ailleurs cette note de lecture serait gravement incomplète si l'on ne mentionnait pas l'extraordinaire connaissance empirique que l'auteur possède du sort réservé à certains animaux ainsi que son savoir dans le domaine du droit de la protection de l'animal. On lira pour s'en convaincre les deux petits livres qu'elle a consacrés, l'un à l'animal en tant qu'aliment: L'animal dans les pratiques de consommation (PUF, coll. Que sais-je?, no 374, Paris, 1995), l'autre à sa protection juridique: La protection de l'animal (PUF, coll. Que sais-je?, no 3147, Paris, 1997,). 

Si une recension est une façon, comme c'est le cas ici, de souligner l'extrême intérêt d'un livre et le courage intellectuel de son auteur, ce peut être également le lieu d'entamer avec lui un dialogue. 

suite:
Deux problèmes nous semblent être posés par Florence Burgat qui mériteraient une réponse approfondie. 

Le premier concerne le droit et plus précisément la question de son énonciation. En effet, si l'on admet (et l'on est bien contraint de le faire) que seul l'homme peut énoncer des droits, même s'il s'agit des droits des animaux, ne serait-il pas finalement plus efficace de promouvoir un droit envers l'animal (dont la pitié pourrait constituer le socle) plutôt qu'un droit de l'animal qui risque en fait comme l'a montré Dominique Bourg à propos du droit de la nature de conduire à un anthropocentrisme redoublé? La déclaration des droits de l'animal ne stipule-t-elle pas elle-même dans son article 9, et comment faire autrement?, que «la défense et la sauvegarde de l'animal doivent avoir des représentants au sein des organismes gouvernementaux»? 

Le deuxième problème, effleuré dans l'introduction (p. 18), est celui du type de discours que l'on est en droit de tenir sur l'animal et, partant, celui de la possibilité même d'un décentrement du regard qui, permettant une identification à l'animal, serait susceptible de fonder la pitié. En effet, ainsi que le met fort bien en évidence Françoise Dastur dans un article au titre significatif «Pour une zoologie "privative" ou comment ne pas parler de l'animal» (Alter, no 3, 1995) nous ne pouvons jamais interpréter la vie animale qu'à partir de notre propre «ouverture à l'être» (p. 286). La vie n'étant donc «accessible pour nous que par une réduction privative à partir de l'existentialité» (p. 292), il nous faut admettre, avec Martin Heidegger que la pierre est sans monde (weltlos), que l'animal est pauvre en monde (weltarm) et que l'homme, seul, est formateur (configurateur) de monde (weltbildend). Cette perpective phénoménologique conduit certes à récuser l'octroi de droits aux animaux mais également à rejeter la réification de ces derniers. 

p.384

«A l'époque de la libération de l'animal écrit F. Dastur, qui est aussi celle du ravalement de l'animal au statut de produit alimentaire de masse [...], de pièce de musée [...] et de jouet vivant [...], peut-être n'est-il pas inutile de rappeler que l'être-avec l'animal ne va pas de soi et que laisser l'animal hanter notre monde, nous inquiéter par son altérité, est peut-être la seule façon d'être véritablement avec lui, sans l'instrumentaliser ni lui prêter faussement un visage humain ce qui n'est pas exclusif d'une étrange amitié entre lui et nous» (p. 303). 
Jean-Paul Maréchal, Rennes
  Alain PAPAUX et Eric WYLER, L'éthique du droit international, Presses universitaires de France, coll. Que sais-je? no 3185, Paris, 1997, 128 p.

La thèse principale de l'ouvrage peut être résumée comme suit. Longtemps le positivisme juridique a imprimé son sceau à la science juridique occidentale. Par sa tendance au formalisme et à l'abstraction il a séparé le droit des phénomènes sociaux et culturels ainsi que des valeurs sur lesquelles seules il peut reposer. La volonté du législateur est affranchie de tout élément ordonnateur (potestas absoluta). Les valeurs sont reléguées à l'ordre de l'irrationnel. Entre le général et le particulier, le positivisme a toujours donné son parti au général. Or les auteurs dirigent au contraire notre attention vers un droit des situations particulières en rupture avec la tradition positiviste prévalant notamment depuis l'ère des codifications modernes. Ce ius in re, comme l'appellent les auteurs, se definit en tant que «droit induit des relations entre choses particulières et existantes hic et nunc» (p. 8). Il repose sur une éthique in re, issue d'un corps social et d'une culture situées. Il est de ce fait éloigné des abstractions généreuses d'une éthique universelle. D'où découlent des conséquences importantes pour le droit international. 

suite:
Pour les auteurs, le droit international général, par cela qu'il s'oriente à l'universel, tend à l'irréalité et à l'inefficacité. C'est un Law in books. Au contraire, le droit international régional et local, issu de solidarités particulières, peut connaître des réalisations utiles et des succès. Tout tient à ceci: en cherchant à s'abstraire de l'enracinement culturel pour suffire à ses dogmes d'universalité et de supériorité, le droit universel perd tout point d'attache avec une éthique qui seule pourrait lui conférer ce degré d'assentiment et d'obéissance sans lequel le droit est voué à une croissante inefficacité. Les auteurs donnent divers exemples pour illustrer les échecs du droit international général et les avancées réelles opérées au niveau régional. L'ouvrage se clot par une hiérarchie des ordres juridiques selon leur degré de rapprochement à l'idéal du ius in re. Il y a d'abord le droit interne, puis le droit international privé, puis le droit international régional et enfin, au point le plus éloigné, le droit international général. D'où la condamnation de cette branche du droit dans nombre de ses manifestations actuelles. 

L'ouvrage constitue un effort intéressant de mettre en lumière des aspects rarement abordés par la doctrine du droit international. Le raisonnement qui aboutit à la condamnation du positivisme juridique, tributaire d'une solide tradition, mérite plein appui. L'appréciation réservée de certaines tendances cherchant des effets un peu tapageurs ou activistes au sein de la société internationale n'est pas moins pertinente. D'autres aspects méritent plus de réflexion. Les faveurs faites au ius in re nous paraissent excessives. Le droit situé n'est qu'un aspect de la vie du droit. Le droit est certes actuation mais il est aussi puissance (norme). L'abstrait (quant à la matière) et le général (quant à la personne) forment donc un aspect de son essence propre. C'est cette vision plus large et non antinomique entre le général et le particulier qui nous semble faire défaut. L'un n'est pas réductible à l'autre. 

p.385

De même, le régional ne peut assurer les fonctions ni les finalités du général et vice versa. Chacun de ces ordres juridiques a des caractéristiques et des fonctions in ordine suo. De surcroît ils sont liés entre eux. Hostiles aux dichotomies positivistes, les auteurs en reproduisent ici d'autres non moins tranchées. 

Peut-être aurait-il été utile d'évoquer au préalable les rapports entre droit et éthique et ce d'autant plus que les auteurs ont de l'éthique une vue très étroite. Peut-on réellement dire que le particulier seul repose sur une éthique réelle, parce qu'il est culturellement enraciné, alors que tout soubassement de ce genre ferait défaut à l'universel? A notre sens le point de départ est au contraire que là où il y a droit il y a de l'éthique. Aucun droit ne peut exister sans un minimum de valeurs communes (cf. A. Verdross, «Die Wertgrundlagen des Völkerrechts», Archiv des Völkerrechts, vol. 4, 1953/4, p. 129ss). Ces valeurs du droit international général auraient mérité plus d'attention. 

De manière accessoire, la critique très virulente des droits subjectifs et de tout droits soupçonnés d'individualisme nous paraît dangereuse. Elle conduit à une réductibilité trop importante de l'homme aux valeurs politiques ou collectives (dépersonnalisation). 

Finalement, et c'est un aspect non négligeable, l'ouvrage est d'une lecture difficile. Il suppose des connaissances préalables en philosophie et théorie du droit. Le style s'encombre de termes techniques parfois un peu excessifs. 

Concluons en insistant sur l'intérêt de ce livre stimulant qui gagne certainement à être lu. 

Robert Kolb, Genève
 (suite)
suite:
Corinne LEPAGE, «On ne peut rien faire, Madame le ministre...», Albin Michel, Paris, 1998, 293 p.

Ancien Ministre de l'environnement dans le Gouvernement d'Alain Juppé, Corinne Lepage rend compte dans un style à la fois allègre et désabusé, de son expérience gouvernementale. Sa thèse centrale, étayée par d'innombrables exemples, tient en une phrase: «Les technocrates sont en position de force face aux ministres». (p. 21) Or ces technocrates, en France, sont constitués par les «grands corps de l'Etat», composés d'une part des grands corps «administratifs» tels que le Conseil d'Etat, l'Inspection des finances, la Cour des comptes, le Quai d'Orsay, le Corps préfectoral, dont les membres ont été formés par l'Ecole nationale d'administration, les fameux «énarques», et des grands corps «techniques» tels les ingénieurs des ponts et chaussées, du génie rural ou de l'armement dont les membres sont issus de l'Ecole polytechnique et de quelques autres, les «X-mines» constituant le sommet du système. (p. 45) 

Nous nous concentrerons ici sur le chapitre 5 de cet ouvrage, chapitre intitulé «Les neutrons au pouvoir». L'auteur commence par évoquer l'affaire Viel, du nom de ce professeur à l'Université de Besançon qui avait publié dans la British Medical Review en 1995 une étude signalant une possible corrélation entre le taux anormalement élevé de leucémie chez les enfants du Cotentin, en Normandie, et le rejets d'effluents radioactifs par l'usine de retraitement nucléaire de La Hague. Aussitôt les technocrates du nucléaires constitués par les représentants de la Direction de la sûreté des installations nucléaires (DSIN), l'Office de protection des rayonnements ionisants (OPRI) - qui a pris la suite du Service central de protection contre les rayonnements ionisants (SCIPRI) que dirigea le célèbre professeur Pellerin lequel immédiatement après l'accident de Tchernobyl déclara que les nuages radioactifs avaient épargné l'Hexagone! -, 

p.386

le Commissariat à l'énergie atomique (CEA) ainsi que la COGEMA, maître d'oeuvre de La Hague, se réunirent secrètement afin d'«établir la réponse politiquement correcte à donner à l'étude Viel». (p. 78) «Ne s'agit-il pas d'organiser la désinformation?» (p. 79) C'est avec toutes les peines du monde que Corinne Lepage obtint la constitution d'une Commission d'expertise plus ou moins indépendante 

Les deux thèses de ce chapitre sont les suivantes: 
1. Déficit démocratique fondamental de l'industrie nucléaire française qui échappe même à l'Etat de droit

«La France n'a jamais connu aucun débat sur le nucléaire, hormis pour déterminer la gestion des déchets radioactifs de longue durée dans le cadre des laboratoires souterrains prévus par la loi du 30 décembre 1991. Aucun gouvernement n'a jamais saisi le Parlement d'un texte de loi et n'a jamais organisé de débat sur ce sujet tabou.» (p. 90) 

«La base du droit nucléaire en France est un décret, celui du 11 décembre 1963. Ce décret, signé du Premier Ministre de l'époque, Georges Pompidou, modifié à plusieurs reprise, fixe les conditions dans lesquelles les centrales nucléaires peuvent être autorisées. Le régime est moins sévère que pour les installations classées», à savoir les usines chimiques et assimilées. (p. 90) 

La raison fondamentale de cet état de chose tient au fait que la filière du plutonium 
- représentée par les prétendus surrégénérateurs Phénix et SuperPhénix et par l'usine de retraitement des combustibles usée de La Hague - choisie par les gouvernements français successifs à l'instigation des technocrates du nucléaire, les «nucléocrates», est une filière militaire camouflée. (pp. 80, 81 et 95) 

2. Dissociation du parc électronucléaire d'Electricité de France (EDF) et de la filière du plutonium

Selon Corinne Lepage, loin d'être un bloc indissociable, le nucléaire «est composé de deux parties: le parc EDF et la filière plutonium, qui ne relèvent pas de la même logique». (p 99) 

suite:
Aussi bien, l'abandon du surrégénérateur SuperPhénix de Creys-Malville devint inévitable par ses dysfonctionnements multiples. «C'est - écrit-elle - la sanction d'une mauvaise décision qui aura coûté la bagatelle de 60 à 70 milliards à la collectivité, et ce, en pure perte. Personne n'a été sanctionné pour cette erreur majeure.» (p. 96) 

On sait que l'abandon du SuperPhénix a été prononcé par le Gouvernement Jospin à l'initiative du successeur de Corinne Lepage au Ministère de l'environnement, Dominique Voynet. 

Toutefois, selon Corinne Lepage, cet abandon aurait été accordé dans le cadre d'un marché de dupes, soit moyennant l'accord discrètement donné par le nouveau Gouvernement français à l'emploi généralisé du combustible MOX dans le parc électronucléaire d'EDF. Ce combustible MOX qui, à l'uranium légèrement enrichi utilisé par le passé, ajoute du plutonium sans avantages techniques ou économiques mais avec beaucoup d'inconvénients écologiques et des risques considérables en matière de sûreté, constitue, depuis l'effondrement du programme surrégénérateur français dont SuperPhénix devait n'être qu'une tête de série industrielle, la seule justification non militaire de l'usine de La Hague. (pp. 12, 91 et 92) 

Par conséquent, grâce à «l'opacité organisée», à la complicité des politiques plus sensibles à leur popularité à court terme qu'à l'intérêt général à long terme, donc à celui aussi des générations à venir, la France reste sous la coupe du «pouvoir caché» des «nucléocrates». (pp. 85 et 87) 

Si Corinne Lepage est assurément convaincante dans ses dénonciations, elle l'est moins lorsqu'elle postule qu'il y aurait deux logiques et surtout deux technologies nucléaires, l'une acceptable constituée par le parc d'EDE l'autre qui ne le serait pas constituée par la filière du plutonium. Et si la première de ces deux technologies était presque aussi redoutable que la seconde? 

Ivo Rens, Genève
 p.387

Bella et Roger BELBÉOCH, Sortir du nucléaire, c'est possible avant la catastrophe, L'esprit frappeur, 7/9 passage Dagorno, 75020 Paris, 127 p.

Pour être important un livre n'a pas nécessairement besoin d'être «ventru». Et cet opuscule est assurément important par l'immensité de l'enjeu, l'originalité des thèses et plus encore par la rigueur de l'argumentation. 

L'enjeu n'est autre que le maintien de l'habitabilité de la France et, implicitement au moins, des autres pays adonnés à l'électronucléaire ou, à tout le moins, la survie de la démocratie dans ces contrées. Les technocrates ont imposé à la France cette technologie en la présentant «comme l'énergie de l'avenir, abondante à l'infini, parfaitement sûre, une énergie sans déchets» (p. 12). Toutefois, leur discours s'est subrepticement infléchi, surtout depuis l'accident de Tchernobyl survenu en 1986, et de nos jours ils reconnaissent que cette industrie produit bel et bien des déchets qui resteront préoccupants pendant des siècles et qu'un accident radiologique majeur comme celui de Tchernobyl, quoiqu'ayant une très faible probabilité d'occurrence, ne saurait être exclu en France même de sorte qu'il convient de se préparer à le «gérer». (p. 31 à 46) 

Les auteurs contestent toute pertinence au calcul des probabilité en l'espèce eu égard à l'indigence des références statistiques et surtout à l'extrême magnitude du risque radiologique majeur. «Les accidents sur nos réacteurs sont désormais reconnus comme étant possibles. C'est l'ampleur de leurs conséquences qui doit être l'élément clé du dossier nucléaire concernant l'acceptabilité de cette énergie.» (p. 5) Or ces conséquences seraient catastrophiques pour la France, le pays industriel le plus nucléarisé, comme le reconnaissent expressément le président de la Société française de médecine de catastrophe et implicitement les nucléocrates et les gouvernements français successifs qui, depuis 1986, ont par décrets aménagé le droit français dans le sens d'une radioprotection toujours plus laxiste en vue de pouvoir «gérer» une éventuelle «urgence radiologique»,

suite:
 euphémisme créé par la Commission internationale de protection contre les radiations ionisantes (CIPR) et par lequel les nucléocrates désignent l'accident nucléaire majeur. Au demeurant cette «gestion» obéit à une logique économique mais à des méthodes militaires, l'objectif étant de protéger d'abord les installations nucléaires bien plus que les travailleurs du nucléaire ou les populations promises aux maladies des rayons et aux évacuations, ce qui démontre l'incompatibilité fondamentale entre l'électronucléaire et la démocratie. 

Devant pareil constat toute politique raisonnable consisterait à décider de «sortir du nucléaire». Toutefois, compte tenu du conditionnement de la majorité de l'opinion publique française par plusieurs décennies de propagande nucléocratique, la plupart des «écologistes» - c'est-à-dire des écologistes politiques représentés en France surtout par les Verts - ont opté pour une sortie en douceur. «Ils exigent une décision immédiate pour un arrêt futur du nucléaire, par le non-renouvellement des réacteurs (vers 2010 et même plus tard). Cela leur permet de se placer dans la mouvance antinucléaire tout en faisant alliance avec des pronucléaires notoires. Cette stratégie politico-électoraliste est particulièrement néfaste pour la crédibilité du mouvement antinucléaire au sein d'une population de plus en plus écoeurée par les magouilles politicardes.» (p. 101) Aussi bien les auteurs s'en prennent tout particulièrement aux «leurres» inhérents à l'argumentation des Verts actuellement au pouvoir dans la «majorité plurielle». 

Nos auteurs, pour leur part, préconisent une reprise en main de leur destin par les Français qui, enfin conscientisés aux risques de catastrophe inhérents à l'électronucléaire, décideraient démocratiquement l'abandon «rapide» de cette industrie. Pour cela, paradoxalement, les principaux obstacles idéologiques à écarter sont issus de la mouvance écologiste. 

 p.388

Sortir rapidement du nucléaire implique en effet la reconnaissance de l'irréalisme inhérent aux mythes bâtis sur les «énergies renouvelables». 

«Ces énergies ne peuvent pas, actuellement, remplacer l'énergie nucléaire. Il n'est pas évident qu'elles pourront jouer un rôle important même dans un avenir lointain sans une modification profonde de la société. Toute référence exclusive aux énergies renouvelables pour sortir de l'impasse nucléaire a pour conséquence la justification et le maintien de l'énergie nucléaire pendant longtemps. Ceci est totalement inacceptable. 

Une stratégie de sortie rapide du nucléaire, pour être crédible et acceptable par la population, ne doit compter que sur les technologies directement utilisables actuellement, c'est-à-dire, outre l'hydraulique, la production d'énergie électrique à partir des combustibles fossiles: le fioul, le gaz et le charbon. Et cela n'est pas délirant puisque la plus grande partie de l'énergie électrique utilisée dans les pays industrialisés provient de ces technologies.» (pp. 49 et 50) Autrement dit, le seul préalable pour sortir du nucléaire consiste pour les Français à renoncer à ce que leur pays reste un «cas aberrant parmi les pays industrialisés du point de vue de l'électricité d'origine nucléaire» (p. 47). 

L'originalité des auteurs est d'argumenter sur la base de données chiffrées, aucune stratégie énergétique sérieuse ne pouvant s'en dispenser. Or donc, en 1995, année de référence, la production d'électricité d'EDF qui représente 94% de la production totale française, a été de 470,6 TWh. Pendant cette année, la France a exporté 70 TWh d'électricité. Par ailleurs, l'autoconsommation de l'électronucléaire au cours de cette même année - due notamment aux usines d'enrichissement et de retraitement - peut être évaluée à quelque 28 TWh. 

«Si on attribue ces 28 TWh au thermique nucléaire, la consommation électrique en 1995 peut être évaluée à 372,6 TWh. La puissance des installations thermiques classiques existantes, alimentées en combustibles fossiles, est de 24 GW. 

suite:
Elles ne fonctionnent actuellement qu'avec une efficacité de 17,5%. Elles peuvent fonctionner avec une efficacité bien plus grande que les réacteurs nucléaires car ce sont des installations robustes exigeant un entretien moindre que les installations nucléaires. Elles pourraient fournir annuellement 190 TWh. Avec une capacité hydraulique de 75,5 TWh, cela permettrait une production de 265,5 TWh. Pour assurer la consommation actuelle, il manquerait donc 107 TWh soit 30% de la production électronucléaire actuelle.» (pp. 55 et 56) 

En réalité ce 30% restant pourrait être résorbé par l'abandon rapide du chauffage électrique «qu'EDF a favorisé d'une façon intensive et qui est l'utilisation la plus irrationnelle de l'électricité.» (p. 56) Il conviendrait d'une part d'interdire l'installation de chauffage électrique dans les nouvelles habitations et d'autre part de prendre des mesures visant à susciter une rapide reconversion des chauffages électriques installés en chauffage au gaz. 

Par conséquent, les auteurs préconisent notamment l'arrêt immédiat de 70% des réacteur existants sur les 57 que compte le parc électronucléaire français, à choisir parmi ceux qui menacent des régions difficiles à protéger en cas d'accident, l'abandon du retraitement et de la production du combustible MOX, et bien sûr l'arrêt immédiat des exportations et de l'autoconsommation de l'électronucléaire, puis l'arrêt rapide des 30% restant grâce à «la mise en place sur les centrales thermiques classiques des dernières améliorations dont EDF et les Charbonnages de France ont la maîtrise concernant la rétention des produits nocifs; la mise en chantier de réacteurs à combustibles fossiles qu'EDF a développés récemment («charbon propre»), en particulier pour l'exportation - en Chine -et pour son propre usage éventuel (puissance de 600 et 700 MWé); la mise en place d'un programme national d'aide à la réduction du chauffage électrique.» (p. 60) 

Certes, le recours aux combustibles fossiles présente l'inconvénient de contribuer à accroître la dérive anthropogénique de l'effet de serre. 

p.389

Nos auteurs n'en disconviennent pas mais considèrent que cette contribution supplémentaire n'aurait qu'une incidence marginale. Sur ce point leur argumentation nous paraît moins solidement étayée que sur les autres problèmes. Le risque inhérent au changement climatique est loin d'être négligeable pour la Planète et pour la France elle-même. Peut-être aurait-il fallu ici tenter d'entreprendre une analyse comparative de l'efficacité ou de l'impact des diverses stratégies énergétiques françaises possibles respectivement sur le risque d'une catastrophe nucléaire et sur celui d'une catastrophe climatique et serait-il possible de conclure que, à elle seule, la France a les moyens d'éviter la première de ces catastrophes mais non point la seconde qui ne peut être conjurée qu'au niveau mondial. 

Nos auteurs ne se désintéressent nullement des énergies renouvelables et des économies d'énergie. Mais ils estiment que les potentialités actuelles ou prochaines des unes et des autres ne sont pas du même ordre de grandeur que celui de la production d'électricité nucléaire, sauf pour ce qui est de l'abandon du chauffage électrique: «Une réduction drastique du chauffage électrique est l'un des éléments clés pour l'abandon total de l'électronucléaire en France, car il représente environ 30 % de la consommation électrique domestique.» (p. 79) A leur avis, «il ne devrait pas y avoir d'opposition entre une sortie rapide du nucléaire avec les moyens dont on dispose (hydraulique, charbon, fioul) et le développement d'une stratégie énergétique pour une société vivable à plus long terme.» (p. 108) 

«Dans le débat sur la sortie du nucléaire les énergies alternatives jouent un rôle primordial au sein du mouvement antinucléaire. Il est évident que vivre comme nous vivons actuellement avec de l'énergie solaire et éolienne serait extrêmement attrayant. Le même confort de vie, pas de danger, pas de déchets, pas d'atteinte à l'environnement. Malheureusement, la réalité est très différente. Les énergies renouvelables, les seules qui pourraient assurer un avenir énergétique sur des temps infinis, ne peuvent garantir notre mode de vie actuel. C'est donc une escroquerie de le prétendre.» (p. 87) 

suite:
Ce que craignent par dessus tout les auteurs, c'est que leur pays attende une catastrophe pour sortir du nucléaire. L'entreprise scrait alors infiniment plus difficile et douloureuse. Leur attitude, prophétique, est authentiquement catastrophiste puisqu'elle dénonce la politique catastrophique que suivent sans désemparer les gouvernements français depuis le lendemain de la IIe Guerre mondiale. 
Ivo Rens, Genève

 
 
 
 
 
 

Thomas NILSEN, Igor KUDRIK, Alexandre NIKITINE, La flotte russe du Nord, Editions Médecine & Hygiène/Georg Editeur, Genève, 1998, 254 pages.

L'édition originale de l'ouvrage en question a pour titre The Russian Northern Fleet éditée en 1996 par la Fondation Bellona d'Oslo, une organisation non gouvernementale qui, depuis 1989 année de la chute du Mur de Berlin - se préoccupe des problèmes environnementaux du nord-ouest de la Russie et de l'océan Arctique. 

La situation écologique de ces régions depuis la fin de l'ère soviétique est, sinon désespérée, pour le moins alarmante - mais était-ce si différent auparavant? En effet, la presqu'île de Kola et la mer Blanche, avec les ports de Mourmansk, Severodvinsk, etc. et leurs régions respectives, sont le lieu d'installations de stockage d'uranium et de déchets radioactifs, et d'abandon de sous-marins à propulsion nucléaire désarmés. «En Russie, écrivent les auteurs, le désarmement de ces sous-marins est devenu un problème national.» (p. 187) Les entrepôts sont combles et leur déliquescence souvent irrémédiable: «Si des mesures de sécurité ne sont pas mises en place, de graves accidents et le déversement de matière fissile seront inévitables.» 

 p.390

Tous les ans, par exemple, environ 10.000 m3 de gaz radioactifs s'échappent des seuls chantiers navals de Zvezdochka. Les gaz provenant des laboratoires et des hangars de construction (Krypton85, Xénon133) sont recueillis dans des ballons où l'on mesure leur activité. Si elle est supérieure aux normes, d'ailleurs imprécises, «ils sont alors dilués dans l'air avant d'être relâchés» (p. 183)! (Il faut par ailleurs remarquer que la situation à La Hague, sans être aussi dramatique, est néanmoins préoccupante: cf. l'ouvrage de Françoise Zonabend, La presqu'île au nucléaire, Editions Odile Jacob, Paris, 1989, et notre article «Pouvoir nucléaire, vers un néo-paganisme» in Stratégies énergétiques, Biosphère & société, Editions Médecine et Hygiène, Genève, 1995.) 

L'ouvrage décrit les différents types de navires et les accidents nucléaires survenus à bord; il énumère les arsenaux et les chantiers navals. Le manque d'argent et l'incompétence des responsables sont souvent mis en cause. Des dates, des photos, des cartes et des plans, ainsi qu'une abondante bibliographie convainquent le lecteur du sérieux du rapport de la Fondation Bellona. En maints endroits les menaces de catastrophes en devenir aux conséquences irréversibles sont si réelles qu'en regard nos soucis sociaux et philosophiques font figures d'amuse-gueule d'un cinq à sept. 

En publiant en français le Rapport Bellona, la Société suisse pour la protection de l'environnement et les Editions Georg ont fait oeuvre utile. Les auteurs, quant à eux, ont travaillé sur le terrain des opérations en accord avec des organisations écologiques russes. Thomas Nilsen est un ancien élève du Norwegian Institute of Technology and Natural Sciences. Igor Kudrik est spécialisé dans l'étude de la pollution radioactive d'origine civile et nucléaire. Alexandre Nikitine, formé à l'Ecole navale de Sébastopol, maintenant capitaine de vaisseau en retraite, avant de travailler, de 1985 à 1992, au service de la sécurité nucléaire du Ministère de la Défense, a servi dans la flotte du Nord. 

suite:
Il y a des vérités que les nucléocrates n'aiment guère entendre, aussi fut-il accusé de haute trahison et d'espionnage et passa dix mois en prison pour avoir «prétendument vendu à la Fondation Bellona des informations très protégées» (p. 7). Maintenant relaxé grâce à des interventions internationales et en résidence surveillée, il attend un hypothétique procès. 

En outre l'étude a bénéficié des conseils de Nils Bohmer, physicien nucléaire, diplômé de l'Université d'Oslo; de Nikolai Mormul, contre-amiral en retraite de la flotte russe du Nord ayant servi à bord du premier sous-marin nucléaire soviétique; enfin de Vyacheslav Perovsky, chimiste nucléaire, engagé depuis le milieu des années 1980 à l'Institut de technologie industrielle Minatom de SaintPétersbourg. 

Joel Jakubec, Coppet

 
 

René LONGET, La Suisse en reconstitution, outils pour l'action, Editions Jouvence, Grand-Lancy / Genève, 1997, 160 pages.

Ainsi que le précise le sous-titre - outils pour l'action - René Longet, en quelques pages concises et incisives, esquisse un programme politique pour l'avenir de la Suisse. Le moment est bien choisi puisque la Confédération helvétique moderne fête cette année ses 150 ans d'existence. 

L'étude de Longet est d'autant plus de circonstance que son préfacier, Jacques-André Tschoumy, part d'un constat de crise: «développements économiques en dents de scie, partenariats sociaux déséquilibrés, appareil politique inadéquat, pluralisme culturel frileux, politiques extérieures incertaines, systèmes de formation désuets». Le diagnostic est sévère et sans doute dépasse nos compétences pour que nous puissions juger sans faille de sa pertinence. 

 p.391

Nous nous demandons néanmoins en quel lieu il serait plus favorable, alors que l'économie mondiale entière est en dents de scie, passant d'une recession asiatique à une autre; que le pluralisme culturel, à l'heure du retour des nationalismes les plus virulents, n'est bientôt plus un peu par-tout qu'un souvenir; que la politique de l'OTAN et de la Communauté européenne, par exemple en ex-Yougoslavie, ne satisfait plus personne... 

Quoi qu'il en soit, ce sont ces divers thèmes énumérés plus haut que Longet aborde avec perspicacité. L'auteur adopte d'emblée une vue large et «haute»; ce n'est ni en polémiste, ni dans le cadre d'une partialité obtuse qu'il s'adresse à son lecteur, mais davantage en citoyen soucieux de l'avenir du pays, en philosophe qui constate que «la crise touche les valeurs»: Longet se révèle à l'occasion éthicien, et nous lui en savons gré. 

En tant que député au Grand Conseil genevois et ancien conseiller national à Berne, l'auteur a eu, et a l'occasion d'étudier la plupart des dossiers importants de l'heure; ce sont en quelque sorte les thèmes de ses divers chapitres. Nous n'allons pas les déflorer, laissant au lecteur futur le plaisir de la découverte. Disons simplement - et cela nous semble la clef de lecture de l'ouvrage entier - que l'auteur aborde chacun des sujets avec le désir, nous dirions presque la passion, de transmettre le sens des responsabilités, le sens de l'engagement pour le bien commun. Le dialogue honnête et communautaire, loin de toute exclusion, en est le moyen privilégié. Longet est un «classique»; avec lui la politique retrouve sa noblesse et son sens étymologique, elle est l'intérêt pour la «poliz» antique, la «ville», le lieu de notre habitation commune. 

Remarquons néanmoins que Longet consacre quelques pages qui nous intéressent plus particulièrement, à savoir la question énergétique et l'environnement - en effet, l'auteur est directeur romand de la Société suisse pour la protection de l'environnement (SPE). 

suite:
On le devine, les techniques permettant de consommer moins d'énergie et le recours aux énergies renouvelables ont sa préférence. Mais là encore, et avec bonheur, c'est dans le cadre d'une «reconstitution» sociétale qu'il entrevoit une solution à l'urgence du problème. Un livre utile, au graphisme agréable. 
Joel Jakubec, Coppet
Barbara SKORUPINSKI, «La génétique dans l'agriculture comme sujet de réflexion éthique » in Les cahiers protestants, Genève, no 2, avril 1997.

Si les problèmes que suscite la génétique relève naturellement des sciences de la nature, ils empiètent néanmoins largement sur le champ - souvent plus complexe encore - de l'éthique. Aussi c'est dans ce cadre-ci que Barbara Skorupinski, docteur en biologie, a choisi d'aborder la génétique dans l'agriculture, mentionnant précisément qu'elle travaille à l'Institut d'éthique sociale de l'Université de Zurich. 

Elle part d'une constatation à la fois générale et angoissante: «Les recherches actuelles sont centrées sur des aspects relevant de la biologie moléculaire et de l'écologie, tels que l'efficacité et le rendement des plantes modifiées. Mais on laisse dans l'ombre certaines recherches écologiques et certains examens de l'évolution biologique qui devraient les accompagner.» Par ailleurs, elle relève un manquement d'ordre méthodologique dans l'appréciation des conséquences éventuelles de l'usage de certains organismes génétiquement modifiés -vice méthodologique particulièrement répandu chez les promoteurs du nucléaire: «Dans la discussion publique au sujet des risques, de nombreux malentendus proviennent de ce que le terme risque recouvre plusieurs significations. La science de la sécurité comprend souvent le terme risque comme la comparaison d'une probabilité et d'une mesure des dégâts. Une telle définition présuppose la possibilité de quantifier ces deux données. 

p.392

En ce qui concerne les conséquences d'un usage libre d'organismes génétiquement modifiés, il n'est pas possible de donner des indications sûres. C'est pourquoi il serait plus judicieux de parler de décisions en condition d'insécurité/ incertitude que de décision en condition de risques.» 

Barbara Skorupinski pose deux garde-fous - aux nombreux corollaires qu'elle examine en détail ultérieurement - à la mise en libre circulation des organismes génétiquement modifiés dans l'agriculture: 1) la préservation de la santé humaine et 2) de l'environnement dans sa structure interactive comme condition pour que cette génération et les suivantes puissent s'alimenter. Elle précise bien qu'il s'agit ici non pas d'« éthique fondamentale», mais d'« éthique appliquée». En parlant de «structure interactive», elle est en plein accord avec la définition que donne de l'écologie le Lexique des sciences sociales (Dalloz, Paris, 1994) du professeur Madeleine Grawitz, et la recherche écologique depuis Ernst Haeckel en 1866 déjà! 

On se demande parfois pourquoi des évidences si simples ont tant de peine à s'imposer. 

Il faut signaler que la contribution de B. Skorupinski s'insère dans un cahier intégralement réservé à la bioéthique avec des apports d'Edouard Dommen, professeur invité au Centre d'études quakers, Université de Sunderland, de Jean-Marie Thévoz, maître assistant à l'Unité de recherche et d'enseignement en bioéthique de la Faculté de médecine de l'Université de Genève, de Jean-Jacques Daetwyler, journaliste scientifique, etc. 

Depuis nombres d'années, Les cahiers protestants, fidèles à la tradition réformée, toutefois sans exclusivisme, demeurent un forum éthique ouvert aux questions théologiques, sociales, politiques, écologiques, économiques et artistiques. 

Joel Jakubec, Coppet
 p.393

Analyses d'importants écrits environnementaux